Parlamento UE AI Act

AI Act EU : reports, règles et clash entre Parlement et Conseil

Le Parlement européen a approuvé à une large majorité une position visant à simplifier la loi sur l'IA, marquant une étape essentielle dans la régulation de l'intelligence artificielle en Europe. Parmi les principales innovations, il faut souligner le report de l'application des règles pour les systèmes à haut risque, motivé par le retard dans la définition des normes techniques.

Les nouveaux délais

Les nouveaux délais proposés fixent l'entrée en vigueur pour les systèmes à haut risque au 2 décembre 2027 et au 2 août 2028 pour ceux réglementés par des réglementations sectorielles. Toutefois, le calendrier des obligations est plus strict filigraneavancé à novembre 2026.

Sur le plan politique, l'attention portée aux droits est également renforcée : les systèmes de « nudification » qui génèrent des contenus sexuellement explicites sans consentement sont interdits. Par ailleurs, les mesures de soutien sont également étendues aux petites et moyennes capitalisations, élargissant ainsi l'éventail des entreprises bénéficiaires.


Conseil de l'UE : convergence sur la simplification, mais avec des corrections

Le Conseil a adopté une ligne similaire, traitant ce dossier comme une priorité. Tout en conservant le cadre de la Commission, les États membres introduisent certains changements pertinents.

Il s’agit notamment du rétablissement de l’obligation d’enregistrement pour certains systèmes initialement exclus de la classification à haut risque et du report des bacs à sable réglementaires à 2027. L’interdiction des contenus illégaux d’IA, y compris les contenus sexuels non consensuels ou liés à la maltraitance des enfants, a également été renforcée.

Une précision importante concerne le rôle de l’AI Office, qui aura des compétences plus définies dans la supervision des modèles généralistes développés par les fournisseurs eux-mêmes. En outre, la Commission devra fournir des lignes directrices pour réduire les charges de conformité pesant sur les entreprises.


Le nœud des agents autonomes : une régulation déjà obsolète ?

L’un des points les plus critiques concerne l’émergence d’agents d’IA autonomes, des systèmes capables de fonctionner sans intervention humaine directe. Contrairement aux chatbots traditionnels, ces outils peuvent effectuer des tâches complexes de manière autonome, comme programmer des logiciels ou interagir avec d’autres systèmes.

Certains incidents récents, tels que des agents agissant de manière non autorisée dans des environnements open source, ont suscité un débat. Le problème est structurel : l’AI Act a été conçu avant la diffusion de ces technologies.

Les institutions européennes apparaissent divisées. D’une part, on pense que les agents peuvent se conformer aux règles existantes ; d’un autre côté, la pression en faveur d’une législation spécifique s’accroît. Cependant, plusieurs États membres se montrent réticents, craignant une réglementation excessive et réclamant des approches plus flexibles fondées sur le soft law.


Application : risque de fragmentation entre États membres

L’application de l’AI Act reposera sur un modèle hybride, combinant supervision européenne et mise en œuvre nationale. Cette approche, bien que conforme à la gouvernance européenne, risque de générer une inhomogénéité.

Chaque État membre devra désigner des autorités spécifiques pour la notification et le contrôle, mais beaucoup sont déjà en retard. Au niveau central, l'UE a créé un certain nombre d'organismes : l'Office de l'IA, le Conseil européen, un groupe scientifique et un forum consultatif multipartite.

Malgré cette architecture, la prédominance du niveau national pourrait donner lieu à des applications divergentes, avec des effets négatifs sur le marché unique et la sécurité juridique.


Les droits fondamentaux sous pression

Les organisations européennes de défense des droits de l’homme et de l’égalité tirent la sonnette d’alarme : les changements proposés risquent d’affaiblir les garanties fondamentales.

Le point critique est à la fois procédural et substantiel. Selon ces autorités, les révisions ont lieu sans analyses d'impact ni consultations publiques adéquates, contrairement aux normes européennes de bonne réglementation.

Parmi les risques signalés : l’assouplissement des définitions des données personnelles, la réduction des obligations d’information et un éventuel affaiblissement des responsabilités en matière d’alphabétisation en IA. L’idée de moduler les obligations en fonction de la taille de l’entreprise plutôt que du risque technologique est particulièrement controversée.


Omnibus numérique : le spectre de la fragmentation réglementaire

Un autre front de tension concerne ce que l'on appelle le « Digital Omnibus ». Plusieurs organisations industrielles et de la société civile craignent que l’évolution des systèmes à haut risque vers des réglementations sectorielles spécifiques puisse démanteler l’approche horizontale de la loi européenne sur l’IA.

Selon ces critiques, cela entraînerait une plus grande fragmentation de la réglementation, avec des règles différentes selon les secteurs, des temps incertains et des coûts de mise en conformité accrus. Les conséquences économiques pourraient être importantes : plus de bureaucratie, moins de sécurité juridique et des obstacles à l’innovation, notamment pour les startups et les PME.

Au contraire, un cadre uniforme est considéré comme essentiel pour garantir la compétitivité mondiale et l’intégration des chaînes de valeur européennes.


Vers la négociation finale

Le vote en plénière étant imminent, la phase de négociation entre le Parlement et le Conseil commence désormais. Le compromis final devra équilibrer trois besoins : la simplification réglementaire, la protection des droits et la compétitivité économique.

L’IA Act entre ainsi dans sa phase la plus délicate : celle où l’ambition réglementaire européenne devra composer avec la rapidité de l’innovation technologique et les pressions du système économique.