Parlamento UE AI Act

AI Act : les Commissions du Parlement européen confirment un accord historique

Loi sur l’IA, une nouvelle étape vers l’entrée en vigueur. Les commissions Marché intérieur et Libertés civiles du Parlement européen a approuvé, mardi 13 février 2024, le résultat des négociations avec les États membres sur la loi sur l’intelligence artificielle, par 71 voix pour, 8 contre et 7 abstentions.

Ce règlement vise à protéger les droits fondamentaux, la démocratie, l’État de droit et la durabilité environnementale contre l’IA à haut risque. Dans le même temps, il vise à stimuler l’innovation et à faire de l’Europe un leader dans le domaine de l’IA. Les règles établissent des obligations pour l’intelligence artificielle en fonction de ses risques potentiels et de son niveau d’impact.

L’IA Act a débuté son parcours en avril 2021 avec la proposition de la Commission européenne puis du Conseil et du Parlement d’aboutir à un accord politique provisoire le 8 décembre 2023, puis le 21 janvier 2024 avec la dernière mouture du texte.

Index des sujets :

Les points forts de la loi sur l’IA telle qu’approuvée par le Parlement européen


Applications interdites

L’accord interdit certaines applications d’IA qui menacent les droits des citoyens, notamment :

  • systèmes de catégorisation biométrique basés sur des caractéristiques sensibles
  • grattage images faciales non ciblées provenant d’Internet ou de séquences de vidéosurveillance pour les bases de données de reconnaissance faciale
  • reconnaissance des émotions au travail et à l’école
  • notation sociale
  • une police prédictive basée exclusivement sur le profilage d’une personne ou l’évaluation de ses caractéristiques
  • IA qui manipule le comportement humain ou exploite les vulnérabilités des personnes.

Exemptions pour les forces de l’ordre

L’utilisation de systèmes identification biométrique (RBI) par les forces de l’ordre est en principe interdit, sauf dans des situations exhaustivement énumérées et étroitement définies. Les systèmes d’identification biométrique « en temps réel » ne peuvent être utilisés qu’avec des garanties strictes, par exemple limitées dans le temps et dans la portée géographique, sous réserve d’une autorisation judiciaire ou administrative.

De telles utilisations concernent par exemple la recherche d’une personne disparue ou la prévention d’un attentat terroriste. Même l’utilisation de tels systèmes post-remote (« post-remote RBI »), considérée comme à haut risque, nécessite une autorisation judiciaire et doit être liée à un crime.


Obligations pour les systèmes à haut risque

Des obligations claires ont également été convenues pour d’autres systèmes d’IA à haut risque, qui pourraient avoir un impact significatif sur la santé, la sécurité, les droits fondamentaux, l’environnement, la démocratie et l’État de droit. Les utilisations à haut risque comprennent celles liées aux infrastructures critiques, à l’éducation et à la formation professionnelle, à l’emploi, aux services essentiels (par exemple, soins de santé, banque), à ​​certains systèmes d’application de la loi, à la gestion des migrations et des frontières, à la justice et aux processus démocratiques (par exemple, influence). sur les élections). Les citoyens auront le droit de déposer des plaintes concernant les systèmes d’IA et de recevoir des explications sur les décisions fondées sur des systèmes d’IA à haut risque qui affectent leurs droits.


Exigences de transparence

Les systèmes de IA à usage général (GPAI) et les modèles sur lesquels ils sont basés doivent répondre à certaines exigences de transparence et se conformer à la législation européenne sur le droit d’auteur lors de leur formation. Les modèles GPAI plus puissants susceptibles de présenter des risques systémiques devront répondre à des exigences supplémentaires, notamment la réalisation d’une évaluation du modèle, d’une évaluation des risques et du reporting des incidents. En outre, les images, contenus audio ou vidéo artificiels ou manipulés (faux profond) doit être clairement étiqueté comme tel.
Mesures de soutien à l’innovation et aux PME
Des bacs à sable réglementaires et des tests en situation réelle seront mis en place au niveau national, offrant aux PME et aux start-ups la possibilité de développer et de former une IA innovante avant de la commercialiser.


Les prochaines étapes de l’AI Act

Le texte attend l’adoption formelle lors d’une prochaine session plénière du Parlement et l’approbation finale par le Conseil. Il sera pleinement applicable 24 mois après son entrée en vigueur, sauf :

  • l’interdiction des pratiques interdites, qui s’appliquera 6 mois après l’entrée en vigueur ;
  • codes de conduite (9 mois après l’entrée en vigueur) ;
  • des règles générales sur l’IA, y compris la gouvernance (12 mois après l’entrée en vigueur) ;
  • obligations pour les systèmes à haut risque (36 mois).

commentaires

Bernd Greifeneder, CTO de Dynatrace, a déclaré : « Maintenant que les législateurs ont montré leur soutien à la loi européenne sur l’IA, il est presque inévitable qu’elle devienne une loi. De nombreuses organisations se demanderont quoi faire pour se préparer pendant la période de transition de deux ans qui devrait commencer dans les mois à venir. Sur la base des lignes directrices établies, il semble que l’UE ait, à juste titre, axé sa réglementation sur la réduction des risques géopolitiques de l’IA, mais pas sur les risques commerciaux. En conséquence, la plupart des organisations se retrouveront probablement à utiliser ce que l’UE appelle des modèles d’IA « à risque faible ou nul ». Ces modèles ne relèvent pas directement de l’influence de la loi sur l’IA, mais l’UE encourage les organisations à s’engager dans des codes de conduite volontaires pour mieux gérer les risques. Il est essentiel qu’ils prennent ces conseils au sérieux, sinon les organisations pourraient se rendre compte que, même si elles sont « conformes », elles s’exposent à des risques. »

Tudorache : « pas de tension entre protection et innovation »

WAICF 2024

Au Festival World AI de Cannes, Dragoș Tudorache, député européen roumain et l’un des co-rapporteurs de la loi, a déclaré que le défi est de garantir que les pays membres comprennent « l’approche, la mentalité et l’esprit » de ce qu’ils veulent atteindre avec la réglementation.

Tudorache s’est dit « très satisfait » de l’unanimité obtenue et a confirmé que la loi se dirige désormais vers les dernières étapes de l’examen en commissions avant un vote final en mars ou avril, « en fonction du moment où les traductions seront disponibles ».

La loi est un point de discorde et de négociation depuis sa première proposition en 2021. En juillet dernier, plus de 150 grandes entreprises européennes ont signé une lettre ouverte à l’UE exprimant de « sérieuses inquiétudes » concernant la loi sur l’intelligence artificielle. Selon les entreprises, la loi « mettrait en péril la compétitivité et la souveraineté technologique de l’Europe sans répondre efficacement aux défis auxquels nous sommes et serons confrontés ».

Certains intervenants à Cannes ont fait écho à ce sentiment, affirmant que cela pourrait étouffer l’innovation. Cependant, Tudorache a rejeté cet argument, affirmant qu’« il n’y a pas de tension entre protection et innovation ».

« En concevant le texte, nous avons délibérément créé un équilibre entre les deux objectifs. Ce n’est pas un jeu à somme nulle. En fait, les deux peuvent être réalisés sans se marcher sur les pieds. »

Tudorache a déclaré que les garanties et garde-fous appropriés avaient été mis en place pour garantir les droits des individus et des entreprises. Il a déclaré que la loi profite aux entreprises « parce qu’elles ont besoin de la confiance des citoyens ».

« Il faut la confiance de la société pour encourager l’adoption, afin que la transformation se produise réellement dans les entreprises. » Tudorache a déclaré que des « incitations » avaient été mises en place dès le départ pour garantir que des exemptions soient disponibles pour le développement open source et des règles spéciales pour les PME.

« Il fallait s’assurer que cela ne soit pas un obstacle pour l’entreprise, bien au contraire, mais que cela crée le bon contexte pour la croissance de l’entreprise, pour la créativité… et je suis convaincu qu’en réalité l’équilibre est là.

Une loi de l’IA pour l’informatique quantique

On a demandé à Tudorache si l’UE avait l’intention de créer une législation similaire pour l’informatique quantique. La réponse a été : « Peut-être, mais j’ose dire non. À mon avis, il s’agit plutôt de la base d’une IA encore plus rapide, plus intelligente et encore plus incroyablement intelligente. Ce qui manquait à l’IA pendant longtemps avant d’atteindre le stade où elle se trouve aujourd’hui et la raison pour laquelle elle est apparue telle qu’elle est aujourd’hui, en particulier les modèles de base, est que l’informatique a évolué jusqu’au point où elle en est aujourd’hui. »

Tudorache a déclaré que la loi sur l’IA devra être « maintenu synchronisé » avec des niveaux croissants de calcul, notamment en ce qui concerne les modèles de fondation, et si les puissances quantiques augmentent, il faudra les couvrir. « À moins que l’informatique quantique n’apporte quelque chose de nouveau à ce que nous pouvons prédire aujourd’hui, ma réponse serait : non, il n’y aura pas de législation spéciale pour le quantique. Mais il faudra constamment adapter la loi sur l’IA et cette possibilité est prévue dans le texte. »