Le modèle d'intelligence artificielle de Google fait l'objet d'un examen minutieux de la part de l'autorité de protection de la vie privée de l'Union européenne
Les régulateurs de l'Union européenne ont annoncé jeudi qu'ils examinaient l'un des modèles d'intelligence artificielle de Google en raison de préoccupations concernant sa conformité avec les règles strictes de confidentialité des données du bloc.
La Commission irlandaise de protection des données a annoncé l'ouverture d'une enquête sur le modèle de langage Pathways 2 de Google, également connu sous le nom de PaLM2. Cette enquête s'inscrit dans le cadre d'efforts plus vastes, notamment menés par d'autres organismes de surveillance nationaux des 27 pays membres, pour examiner la manière dont les systèmes d'IA traitent les données personnelles.
Le siège européen de Google est basé à Dublin, de sorte que l'organisme de surveillance irlandais agit en tant que principal régulateur de l'entreprise pour le règlement général sur la protection des données (RGPD) de l'Union européenne.
La Commission a déclaré que son enquête visait à déterminer si Google avait évalué si le traitement des données de PaLM2 entraînerait probablement un « risque élevé pour les droits et libertés des individus » dans l'UE.
Les grands modèles linguistiques comme PaLM2 sont de vastes réserves de données qui servent de blocs de construction aux systèmes d'intelligence artificielle. Google utilise PaLM2 pour alimenter une gamme de services d'IA générative, notamment la synthèse des e-mails. L'entreprise n'a pas répondu à une demande de commentaire.
L'organisme de surveillance irlandais a déclaré plus tôt ce mois-ci que la plateforme de médias sociaux X d'Elon Musk avait accepté de cesser définitivement de traiter les données des utilisateurs pour son chatbot IA Grok. La plateforme n'a pris cette décision qu'après que l'organisme de surveillance l'a poursuivie en justice le mois précédent, en déposant une demande urgente auprès de la Haute Cour pour que X « suspende, restreigne ou interdiction » le traitement des données personnelles contenues dans les publications publiques de ses utilisateurs.
Meta Platforms a suspendu ses projets d'utiliser le contenu publié par les utilisateurs européens pour former la dernière version de son modèle linguistique à grande échelle après une pression apparente des régulateurs irlandais. La décision « fait suite à un dialogue intensif » entre les deux, a déclaré l'organisme de surveillance en juin.
L'année dernière, le régulateur italien de la confidentialité des données a temporairement interdit ChatGPT en raison de violations de la confidentialité des données et a exigé que le créateur du chatbot, OpenAI, réponde à une série d'exigences pour résoudre ses problèmes.