ChatGPT fait face à une plainte de l'Autriche pour « erreurs non corrigibles »

ChatGPT fait face à une plainte de l'Autriche pour « erreurs non corrigibles »

Un groupe de défense de la vie privée basé à Vienne a annoncé lundi qu'il porterait plainte contre ChatGPT en Autriche, affirmant que l'outil phare d'IA « hallucinant » avait inventé de fausses réponses que le créateur OpenAI ne pouvait pas corriger.

NOYB (« None of Your Business ») a déclaré qu'il n'y avait aucun moyen de garantir que le programme fournissait des informations exactes. « ChatGPT continue d'halluciner, et même OpenAI ne peut pas l'arrêter », a déclaré le groupe dans un communiqué.

La société a ouvertement reconnu qu'elle ne pouvait pas corriger les informations inexactes produites par son outil d'IA générative et n'a pas réussi à expliquer d'où proviennent les données et ce que ChatGPT stocke sur les individus, a déclaré le groupe.

De telles erreurs sont inacceptables pour les informations sur les individus, car la législation européenne stipule que les données personnelles doivent être exactes, a soutenu le NOYB.

« Si un système ne peut pas produire des résultats précis et transparents, il ne peut pas être utilisé pour générer des données sur des individus », a déclaré Maartje de Graaf, avocat spécialisé en protection des données chez NOYB.

« La technologie doit respecter les exigences légales, et non l'inverse. »

ChatGPT « a fourni à plusieurs reprises des informations incorrectes » sur la date de naissance du fondateur de NOYB, Max Schrems, « au lieu de dire aux utilisateurs qu'il ne dispose pas des données nécessaires », a déclaré le groupe.

OpenAI a refusé la demande de Schrems de rectifier ou d'effacer les données bien qu'elles soient incorrectes, affirmant que c'était impossible, a ajouté NOYB.

Elle « n'a pas non plus répondu de manière adéquate » à sa demande d'accès à ses données personnelles, encore une fois en violation du droit de l'UE, a déclaré NOYB, et la société « semble même ne pas prétendre pouvoir s'y conformer ».

OpenAI s'est déclaré « engagé à protéger la confidentialité des données » en réponse à une demande de commentaires de l'AFP.

« Nous voulons que nos modèles d'IA apprennent à connaître le monde, pas les individus ; nous ne recherchons pas activement d'informations personnelles pour former nos modèles, et nous n'utilisons pas d'informations accessibles au public sur Internet pour établir un profil, faire de la publicité ou cibler des personnes, ou pour vendre leurs données », a déclaré un porte-parole d'OpenAI.

NOYB, qui s'est imposé comme un critique féroce des géants de la technologie depuis sa création en 2018, a déclaré qu'il demandait à l'autorité autrichienne de protection des données d'enquêter et d'infliger une amende à OpenAI afin de le mettre en conformité avec le droit de l'UE.

Apparu en novembre 2022, ChatGPT a suscité une frénésie parmi les utilisateurs de technologies éblouis par sa capacité à dérouler des dissertations, des poèmes ou des traductions en quelques secondes seulement.

Mais les critiques à l’égard de cette technologie ont donné lieu à des poursuites judiciaires dans certains pays.

L'Italie a temporairement bloqué le programme en mars 2023, tandis que l'autorité de régulation française a ouvert une enquête après une série de plaintes.

Un groupe de travail européen a également été créé pour améliorer la coordination, même si le NOYB s'est dit sceptique quant aux efforts des autorités pour réglementer l'IA.