L’UE reprendra vendredi les négociations sur la première loi mondiale sur l’IA
L’Union européenne n’est pas parvenue à conclure un accord jeudi sur une loi radicale sur l’intelligence artificielle après près de 24 heures de négociations, mais s’est engagée à poursuivre les négociations le lendemain.
Bruxelles souhaite approuver la première loi globale sur l’IA au monde avant la fin 2023, après que la question soit devenue encore plus urgente lorsque le robot ChatGPT a ébloui le monde l’année dernière, démontrant les progrès rapides de l’IA.
ChatGPT en a surpris beaucoup par sa capacité à produire des essais et des poèmes éloquents en quelques secondes à partir de simples invites utilisateur.
Malgré le potentiel de la technologie à transformer le travail et les soins de santé, les critiques soulignent les risques croissants de désinformation et d’utilisation abusive de l’IA, notamment les images deepfake.
Les négociateurs du Parlement européen et des États membres de l’UE ont entamé les discussions mercredi après-midi, avec l’espoir ambitieux de parvenir à un accord au plus tard jeudi aux premières heures.
« Beaucoup de progrès ont été réalisés au cours des dernières 22 heures sur la loi sur l’IA. Reprise des travaux avec le Parlement et le Conseil européens demain à 9h00 (08h00 GMT). Restez à l’écoute ! » » a déclaré le commissaire européen au marché intérieur, Thierry Breton, sur les réseaux sociaux.
Il n’y a pas de véritable date limite, mais de hauts responsables de l’UE ont investi beaucoup de capital politique pour finaliser le texte juridique d’ici jeudi matin.
Même si les négociateurs concluaient un accord vendredi, la loi n’entrerait en vigueur qu’en 2026 au plus tôt.
Il existe deux domaines de division entre les États membres et le Parlement.
Le premier point de friction concerne la manière de réglementer les modèles dits de fondation, conçus pour accomplir diverses tâches, la France, l’Allemagne et l’Italie appelant à exclure ces systèmes des parties les plus strictes de la loi.
Certains États membres conviennent que la réglementation doit limiter les dommages pouvant résulter d’une mauvaise utilisation de l’IA, mais souhaitent néanmoins encourager l’innovation, d’autant plus qu’ils veulent avoir leurs propres champions européens, comme OpenAI, le créateur américain de ChatGPT.
Un autre point de friction est la surveillance biométrique à distance – essentiellement l’identification faciale grâce aux données des caméras dans les lieux publics.
Le Parlement européen souhaite une interdiction totale des systèmes d’identification biométrique à distance « en temps réel », mais certains États membres souhaitent des exceptions pour permettre l’utilisation de cette technologie à des fins policières.
La Commission européenne, l’organe exécutif de l’UE, a proposé pour la première fois en 2021 une loi sur l’IA qui réglementerait les systèmes en fonction du niveau de risque qu’ils représentent. Par exemple, plus le risque pour les droits ou la santé des citoyens est grand, plus les obligations des systèmes sont grandes.
Les titans de la technologie, dont Google et Meta, cherchent également à obtenir une part du gâteau de l’IA.
L’UE n’est pas la seule à s’inquiéter de l’impact et de l’influence de l’IA.
Le président américain Joe Biden a publié en octobre un décret visant à réglementer l’IA dans le but d’atténuer les risques liés à cette technologie.
La Chine a également mis en vigueur des réglementations sur les contenus générés par l’intelligence artificielle en août de cette année.