Les pays du G7 veulent une IA « digne de confiance », mais affirment que les règles peuvent varier
Les ministres de la technologie du G7 réunis vendredi en Italie se sont engagés à « parvenir à une vision et un objectif communs en matière d'intelligence artificielle sûre, sécurisée et digne de confiance », mais ont déclaré que le cadre pourrait varier d'un pays à l'autre.
Cet engagement intervient deux jours après que le Parlement européen a donné son approbation finale aux règles les plus ambitieuses au monde régissant l'intelligence artificielle, y compris des systèmes puissants comme ChatGPT d'OpenAI.
ChatGPT a épaté le monde fin 2022 avec ses capacités semblables à celles des humains : de la digestion de textes complexes à la production de poèmes en quelques secondes ou à la réussite d'examens médicaux. D’autres IA ont suivi, comme DALL-E, qui produisent des images basées sur une simple saisie dans le langage courant.
Mais il existe une série de risques, notamment celui des « deepfakes » audio et vidéo générés par l’IA qui pourraient dynamiser les campagnes de désinformation.
« Nous sommes déterminés à parvenir à un équilibre approprié entre la promotion de l'innovation et la nécessité de garde-fous appropriés », ont déclaré les pays du Groupe des Sept (G7) dans un communiqué.
Le groupe, qui comprend les États-Unis, le Japon, l'Allemagne, la France, la Grande-Bretagne, l'Italie et le Canada, a déclaré que des « efforts étaient en cours… pour faire progresser et renforcer l'interopérabilité entre les cadres de gouvernance de l'IA ».
Mais les ministres, qui ont publié la déclaration après deux jours de négociations à Vérone et Trente, ont déclaré qu'ils reconnaissaient que « les approches et les instruments politiques partageant les mêmes idées pour atteindre la vision et l'objectif communs d'une IA sûre, sécurisée et digne de confiance peuvent varier parmi les membres du G7 ». .
Certains pays membres du G7, comme les États-Unis et la Grande-Bretagne, sont favorables à des règles plus clémentes, s'appuyant plutôt sur l'autorégulation ou l'adhésion volontaire des géants de la technologie aux systèmes de surveillance.
« Notre approche en matière de réglementation de l'intelligence artificielle est différente de celle de l'UE », a déclaré la ministre britannique de la Technologie, Michelle Donelan, au quotidien italien La Repubblica.
« Nous ne voulons pas seulement nous concentrer sur les risques, mais aussi promouvoir l'innovation et éviter de l'entraver. »