Comment l’Europe mène le monde dans la poussée pour réglementer l’IA
Les législateurs européens ont approuvé mercredi le premier ensemble de règles complètes au monde pour l’intelligence artificielle, éliminant un obstacle majeur alors que les autorités du monde entier se précipitent pour freiner l’IA.
Le vote du Parlement européen est l’une des dernières étapes avant que les règles ne deviennent loi, ce qui pourrait servir de modèle pour d’autres endroits travaillant sur des réglementations similaires.
Un effort de longue date de Bruxelles pour établir des garde-fous pour l’IA est devenu plus urgent, car les progrès rapides des chatbots comme ChatGPT montrent les avantages que la technologie émergente peut apporter et les nouveaux périls qu’elle pose.
Voici un aperçu de la loi sur l’intelligence artificielle de l’UE :
COMMENT FONCTIONNENT LES RÈGLES ?
La mesure, proposée pour la première fois en 2021, régira tout produit ou service utilisant un système d’intelligence artificielle. La loi classera les systèmes d’IA selon quatre niveaux de risque, de minime à inacceptable.
Les applications plus risquées, telles que l’embauche ou la technologie destinée aux enfants, seront confrontées à des exigences plus strictes, notamment en étant plus transparentes et en utilisant des données précises.
Il appartiendra aux 27 États membres de l’UE de faire respecter les règles. Les régulateurs pourraient obliger les entreprises à retirer leurs applications du marché.
Dans les cas extrêmes, les violations pourraient entraîner des amendes pouvant aller jusqu’à 30 millions d’euros (33 millions de dollars) ou 6 % du chiffre d’affaires mondial annuel d’une entreprise, ce qui, dans le cas d’entreprises technologiques comme Google et Microsoft, pourrait s’élever à des milliards.
QUELS SONT LES RISQUES ?
L’un des principaux objectifs de l’UE est de se prémunir contre toute menace de l’IA pour la santé et la sécurité et de protéger les droits et valeurs fondamentaux.
Cela signifie que certaines utilisations de l’IA sont un non-non absolu, comme les systèmes de « notation sociale » qui jugent les gens en fonction de leur comportement.
Est également interdite l’IA qui exploite les personnes vulnérables, y compris les enfants, ou utilise une manipulation subliminale pouvant entraîner des dommages, par exemple, un jouet interactif parlant qui encourage un comportement dangereux.
Les outils de police prédictive, qui analysent les données pour prévoir qui commettra des crimes, sont également sortis.
Les législateurs ont renforcé la proposition initiale de la Commission européenne, la branche exécutive de l’UE, en élargissant l’interdiction de la reconnaissance faciale à distance en temps réel et de l’identification biométrique en public. La technologie scanne les passants et utilise l’IA pour faire correspondre leurs visages ou d’autres traits physiques à une base de données.
Un amendement controversé visant à autoriser des exceptions en matière d’application de la loi, telles que la recherche d’enfants disparus ou la prévention des menaces terroristes, n’a pas été adopté.
Les systèmes d’IA utilisés dans des catégories telles que l’emploi et l’éducation, qui affecteraient le cours de la vie d’une personne, sont confrontés à des exigences strictes telles que la transparence avec les utilisateurs et la prise de mesures pour évaluer et réduire les risques de biais des algorithmes.
La plupart des systèmes d’IA, tels que les jeux vidéo ou les filtres anti-spam, entrent dans la catégorie à faible ou sans risque, selon la commission.
QU’EN EST-IL DE CHATGPT ?
La mesure originale mentionnait à peine les chatbots, principalement en exigeant qu’ils soient étiquetés afin que les utilisateurs sachent qu’ils interagissent avec une machine. Les négociateurs ont ensuite ajouté des dispositions pour couvrir l’IA à usage général comme ChatGPT après qu’elle ait explosé en popularité, soumettant cette technologie à certaines des mêmes exigences que les systèmes à haut risque.
Un ajout clé est l’exigence de documenter en profondeur tout matériel protégé par le droit d’auteur utilisé pour enseigner aux systèmes d’IA comment générer du texte, des images, des vidéos et de la musique qui ressemblent au travail humain.
Cela permettrait aux créateurs de contenu de savoir si leurs articles de blog, livres numériques, articles scientifiques ou chansons ont été utilisés pour former des algorithmes qui alimentent des systèmes comme ChatGPT. Ensuite, ils pourraient décider si leur travail a été copié et demander réparation.
POURQUOI LES RÈGLES DE L’UE SONT-ELLES SI IMPORTANTES ?
L’Union européenne n’est pas un acteur important dans le développement de l’IA de pointe. Ce rôle est joué par les États-Unis et la Chine. Mais Bruxelles joue souvent un rôle de précurseur avec des réglementations qui tendent à devenir de facto des normes mondiales et est devenue un pionnier dans les efforts visant à cibler le pouvoir des grandes entreprises technologiques.
Selon les experts, la taille même du marché unique de l’UE, avec 450 millions de consommateurs, permet aux entreprises de se conformer plus facilement que de développer différents produits pour différentes régions.
Mais ce n’est pas qu’une répression. En établissant des règles communes pour l’IA, Bruxelles tente également de développer le marché en instaurant la confiance des utilisateurs.
« Le fait qu’il s’agisse d’une réglementation qui peut être appliquée et que les entreprises seront tenues pour responsables est significatif », car d’autres endroits comme les États-Unis, Singapour et la Grande-Bretagne ont simplement offert « des conseils et des recommandations », a déclaré Kris Shrishak, technologue et chercheur principal au Conseil irlandais pour les libertés civiles.
« D’autres pays pourraient vouloir adapter et copier » les règles de l’UE, a-t-il déclaré.
D’autres jouent au rattrapage. La Grande-Bretagne, qui a quitté l’UE en 2020, se bat pour un poste de direction de l’IA. Le Premier ministre Rishi Sunak prévoit d’organiser cet automne un sommet mondial sur la sécurité de l’IA.
« Je veux faire du Royaume-Uni non seulement le foyer intellectuel, mais aussi le foyer géographique de la réglementation mondiale sur la sécurité de l’IA », a déclaré Sunak lors d’une conférence technique cette semaine.
Le sommet britannique réunira des personnes « des universités, des entreprises et des gouvernements du monde entier » pour travailler sur « un cadre multilatéral », a-t-il déclaré.
ET APRÈS?
Il pourrait s’écouler des années avant que les règles ne prennent pleinement effet. La prochaine étape consiste en des négociations tripartites impliquant les pays membres, le Parlement et la Commission européenne, qui pourraient faire face à d’autres changements alors qu’ils tentent de s’entendre sur le libellé.
L’approbation finale est attendue d’ici la fin de cette année, suivie d’une période de grâce pour que les entreprises et les organisations s’adaptent, souvent autour de deux ans.
Brando Benifei, un membre italien du Parlement européen qui codirige ses travaux sur la loi sur l’IA, a déclaré qu’ils feraient pression pour une adoption plus rapide des règles pour les technologies à évolution rapide comme l’IA générative.
Pour combler le vide avant que la législation n’entre en vigueur, l’Europe et les États-Unis élaborent un code de conduite volontaire que les responsables ont promis fin mai serait rédigé dans quelques semaines et pourrait être étendu à d’autres « pays partageant les mêmes idées ».
___
Note de correction : Cette histoire a été corrigée pour montrer que le nom de famille de Kris Shrishak était mal orthographié.