Le Parlement européen adopte des règles « pionnières » sur l’IA
Le Parlement européen a donné son approbation finale mercredi aux règles les plus ambitieuses au monde pour régir l'intelligence artificielle, y compris des systèmes puissants comme ChatGPT d'OpenAI.
La loi sur l’IA se concentre sur les utilisations à plus haut risque de la technologie par les secteurs privé et public, avec des obligations plus strictes pour les fournisseurs, des règles de transparence plus strictes pour les modèles les plus puissants comme ChatGPT et une interdiction pure et simple des outils jugés trop dangereux.
De hauts responsables de l’Union européenne affirment que les règles, proposées pour la première fois en 2021, protégeront les citoyens des risques liés au développement d’une technologie à une vitesse vertigineuse, tout en favorisant l’innovation sur le continent.
La chef de l'UE, Ursula von der Leyen, a salué le vote ouvrant la voie à un « cadre pionnier pour une IA innovante, avec des garde-fous clairs ».
« Cela bénéficiera au fantastique vivier de talents de l'Europe. Et établira un modèle pour une IA digne de confiance dans le monde entier », a-t-elle déclaré sur X.
Le texte a été adopté avec le soutien de 523 députés européens, contre 46. Les 27 États de l'UE devraient approuver la loi en avril avant sa publication au Journal officiel de l'UE en mai ou juin.
Bruxelles s'est efforcée d'adopter les nouvelles règles depuis l'arrivée de ChatGPT d'OpenAI, soutenu par Microsoft, fin 2022, déclenchant une course mondiale à l'IA.
Il y a eu une explosion d'enthousiasme pour l'IA générative alors que ChatGPT a séduit le monde avec ses capacités semblables à celles des humains, de la digestion de textes complexes à la production de poèmes en quelques secondes, ou à la réussite d'examens médicaux.
D'autres exemples incluent DALL-E et Midjourney, qui produisent des images, tandis que d'autres créent des sons basés sur une simple saisie dans le langage courant.
Mais avec l’enthousiasme, on a rapidement pris conscience des menaces, notamment le fait que les deepfakes audio et vidéo générés par l’IA pourraient dynamiser les campagnes de désinformation.
« Aujourd'hui est à nouveau un jour historique sur notre long chemin vers la réglementation de l'IA », a déclaré Brando Benifei, un législateur italien qui a fait adopter le texte au Parlement avec l'eurodéputé roumain Dragos Tudorache.
« Nous avons réussi à trouver cet équilibre très délicat entre l'intérêt d'innover et l'intérêt de protéger », a déclaré Tudorache aux journalistes avant le vote.
Les règles couvrant les modèles d’IA comme ChatGPT entreront en vigueur 12 mois après que la loi soit devenue officielle, tandis que les entreprises devront se conformer à la plupart des autres dispositions dans deux ans.
Restrictions de contrôle de l'IA
Les règles de l'UE connues sous le nom de « AI Act » adoptent une approche basée sur le risque : plus le système est risqué, plus les exigences sont strictes, avec une interdiction pure et simple des outils d'IA considérés comme les plus menaçants.
Par exemple, les fournisseurs d’IA à haut risque doivent procéder à des évaluations des risques et s’assurer que leurs produits sont conformes à la loi avant qu’ils ne soient mis à la disposition du public.
« Nous réglementons le moins possible et autant que nécessaire, avec des mesures proportionnées pour les modèles d'IA », a déclaré le commissaire européen au marché intérieur, Thierry Breton.
Les violations peuvent entraîner des amendes allant de 7,5 millions à 35 millions d'euros (8,2 millions à 38,2 millions de dollars), selon le type d'infraction et la taille de l'entreprise.
Il existe des interdictions strictes sur l'utilisation de l'IA à des fins de police prédictive et sur les systèmes qui utilisent des informations biométriques pour déduire la race, la religion ou l'orientation sexuelle d'un individu.
Les règles interdisent également la reconnaissance faciale en temps réel dans les espaces publics, mais avec quelques exceptions pour les forces de l'ordre, même si la police doit demander l'approbation d'une autorité judiciaire avant tout déploiement d'IA.
Le groupe de défense des droits civiques numériques Access Now a déclaré que les interdictions ne allaient pas assez loin.
« Le texte final est plein de lacunes, d'exclusions et d'exceptions, ce qui signifie qu'il ne protégera pas les personnes, ni leurs droits humains, contre certaines des utilisations les plus dangereuses de l'IA », a-t-il déclaré dans un communiqué.
L’UE a « résisté à la pression »
Étant donné que l’IA va probablement transformer tous les aspects de la vie des Européens et que les grandes entreprises technologiques se disputent la domination sur ce qui sera un marché lucratif, l’UE a fait l’objet d’un lobbying intense.
Les organismes de surveillance ont souligné mardi les campagnes menées par la start-up française d'IA Mistral AI et l'allemand Aleph Alpha, ainsi que par des géants technologiques basés aux États-Unis comme Google et Microsoft.
Ils ont averti que la mise en œuvre de la loi « pourrait être encore affaiblie par le lobbying des entreprises ».
« De nombreux détails de la loi sur l'IA restent ouverts et doivent être clarifiés dans de nombreux actes d'exécution, par exemple en ce qui concerne les normes, les seuils ou les obligations de transparence », ont déclaré trois organismes de surveillance basés en Belgique, en France et en Allemagne.
Le député Tudorache a déclaré que la loi était « l'un des textes législatifs ayant fait l'objet des plus fortes pressions, certainement au cours de ce mandat », mais a insisté : « Nous avons résisté à la pression ».
Les organisations représentant les secteurs créatifs et culturels européens ont salué le vote dans une déclaration commune mais ont exhorté l'UE à garantir que « ces règles importantes soient mises en pratique de manière significative et efficace ».