Gouvernance de l’IA en Europe : règles, défis et critiques
Après avoir archivé le report des règles pour les systèmes d’intelligence artificielle à haut risque, destinés à permettre le développement de lignes directrices et de normes techniques adéquates – le Parlement européen a adopté sa position sur le projet de simplification de la loi sur l’IA avec 569 voix pour, 45 contre et 23 abstentions -, étape clé dans le processus législatif qui ouvre les négociations avec le Conseil pour la définition finale de la législation, on trouve une analyse du German Marshall Fund qui remet en question le stéréotype selon lequel les États-Unis innovent tandis que l’Europe il régule simplement.
Une étude menée entre Paris et Bruxelles met en lumière des priorités communes entre les deux côtés de l’Atlantique, notamment sur la sécurité des mineurs et les limites des systèmes à risque
Les difficultés de l’Europe en matière d’IA ne proviennent pas tant de la réglementation que de facteurs structurels : marchés de capitaux fragmentés, coûts énergétiques élevés, pénurie de talents et accès limité aux données et à la capacité de calcul.
Comment fonctionnera l’application
Selon une analyse du Future of Life Institute, les obligations imposées aux fournisseurs de modèles d’IA à usage général sont déjà en vigueur à partir du 2 août 2025, mais les pouvoirs de contrôle de la Commission entreront en vigueur à partir du 2 août 2026.
Il s’agit notamment des demandes de documentation, des évaluations, des mesures correctives, jusqu’aux restrictions et sanctions du marché. Les autorités nationales, les opérateurs en aval et les groupes scientifiques joueront également un rôle dans le système de contrôle.
Les critiques : risque de déréglementation
Amnesty International critique sévèrement le paquet « Digital Omnibus », arguant que derrière cette simplification se cache une déréglementation favorable aux grandes entreprises technologiques.
Selon l’organisation, le report des règles sur les systèmes à haut risque et la clause de «droits acquis » pourrait affaiblir considérablement les protections fournies par la loi sur l’IA, considérée comme l’une des tentatives les plus avancées au monde pour réglementer l’intelligence artificielle.
La question du genre dans l’IA
Un autre point critique concerne l’absence de perspective de genre dans les politiques en matière d’intelligence artificielle. Les analystes du European Policy Centre soulignent à quel point la violence numérique basée sur le genre est désormais amplifiée par l’IA, qui permet la production à grande échelle de contenus préjudiciables.
Bien que la loi sur l’IA mentionne l’égalité des sexes, elle n’aborde pas explicitement les dynamiques de pouvoir qui influencent la conception et l’utilisation des systèmes.
Les recommandations pour le trilogue
Un rapport de l’AI Standards Lab appelle à un équilibre entre simplification et protection des droits fondamentaux dans la négociation finale. Parmi les propositions :
- renforcer les garanties de santé et de sécurité
- maintenir les obligations clés pour les fournisseurs
- améliorer la surveillance du Bureau de l’IA
- renforcer les protections du RGPD
Une attention particulière est également requise en matière de surveillance post-commercialisation et d’interdiction des contenus intimes non consensuels.
Le nœud politique : innovation contre droits
La révision de la loi IA met en lumière une tension structurelle : d’un côté la nécessité de soutenir la compétitivité européenne dans le secteur technologique, de l’autre la protection des droits fondamentaux.
Le compromis final, attendu dans les négociations avec le Conseil, déterminera non seulement l’avenir de la régulation européenne, mais aussi le rôle de l’Europe dans la gouvernance mondiale de l’intelligence artificielle.
