Régulation de l’IA : l’UE est en retard sur les risques multi-agents
L’UE pourrait être en retard dans la législation concernant les agents d’IA. L'article 73 de la loi sur l'IA stipule que les fournisseurs de systèmes d'IA à haut risque doivent informer les autorités nationales compétentes de tout « grave accident » cela implique leurs systèmes. Les signalements doivent être effectués rapidement – dans les 15 jours suivant la découverte du lien entre le système et l’incident, et plus rapidement dans les cas graves, tels que des décès ou des perturbations critiques des infrastructures – avec l’obligation d’enquêter et de coopérer avec les autorités après notification.
La Commission européenne a déjà publié des projets de lignes directrices et des modèles de rapport sur la manière d'appliquer ces règles et a ouvert une consultation publique jusqu'en novembre 2025. (Voir : Stratégie numérique européenne)
Le nœud du problème : l’IA multi-agents et les limites des lignes directrices
Selon un avis publié le Presse sur la politique technologique Selon Natàlia Fernández Ashman, Usman Anwar et Marta Bieńkiewicz, les lignes directrices actuelles de l'UE sont inadéquates car elles se concentrent sur des scénarios d'accidents provoqués par un IA à agent uniqueen négligeant les cas émergents où plusieurs systèmes automatisés interagissent et génèrent des risques systémiques. (Source : Tech Policy Press)
Les auteurs préviennent que l'IA n'agit plus comme une entité isolée : des systèmes autonomes de plus en plus complexes réagissent aux décisions des autres, créant des effets d'entraînement difficiles à attribuer à un seul « coupable ».
Deux exemples cités dans le débat international :
- Collusion algorithmique sur les prix du marché des carburants en Allemagne – où les algorithmes de tarification réagissaient les uns aux autres sans coordination explicite, provoquant une augmentation des prix d’eux-mêmes.
- Le « flash krach » de 2010, au cours duquel les systèmes de trading automatisés se sont influencés les uns les autres pour générer un effondrement rapide des prix : un incident multi-système explosif auquel un cadre de reporting rigide aurait du mal à répondre.
Ces scénarios montrent que les interactions entre les systèmes d’IA peuvent causer des dommages étendus ou cumulatifs sans qu’une cause unique claire n’apparaisse, remettant ainsi en question les critères de reporting actuels.
Dangers systémiques et responsabilité généralisée
L'inquiétude des experts ne concerne pas seulement les attributs techniques, mais aussi la responsabilité réglementaire : lorsque plusieurs systèmes génèrent des dommages collectifs, il devient compliqué de déterminer qui doit réagir ou corriger. Ce problème est connu dans la littérature académique sur risques multi-agents dans les systèmes d’IA avancés, où apparaissent des échecs tels qu’une mauvaise coordination, des conflits et une collusion entre agents.
Jusqu'à présent, le projet de lignes directrices ne prévoit pas la possibilité de prendre en compte les dommages cumulatifs, systémiques ou liés aux interactions non linéaires entre agents d'IA : une lacune qui pourrait laisser non signalés les événements qui ne répondent pas aux critères classiques de « l'incident unique ».
Problèmes critiques dans les rapports et les demandes des experts
Un autre point critique souligné par les auteurs concerne les mécanismes de signalement : le projet ne prévoit pas de parcours structurés pour les tiers ou les lanceurs d'alerte (lanceurs d'alerte internes/externes), ce qui limite de fait la visibilité des incidents qui ne sont pas découverts par les prestataires eux-mêmes. (Source : Tech Policy Press)
Selon les critiques de la législation, sans canaux de signalement indépendants – y compris l’anonymat et la protection des lanceurs d’alerte – de nombreux cas à risque pourraient rester cachés jusqu’à devenir de véritables problèmes systémiques.
Ce que demandent les décideurs politiques et le secteur
Les auteurs de l’article d’opinion et d’autres experts en gouvernance de l’IA demandent que les lignes directrices :
- reconnaître explicitement les comportements émergents dus à l'interaction entre les systèmes ;
- élargir la définition d'« incident grave » pour inclure les effets cumulatifs et systémiques ;
- fournir des canaux de signalement aux tiers et aux lanceurs d’alerte ;
- proposer des outils de surveillance continue et des interventions techniques (ex. « coupe-circuit » ou disjoncteur).
Dans un contexte plus large, les observateurs soulignent que l’avènement rapide d’agents d’IA capables d’interagir entre eux rend urgente une révision de la réglementation – un débat qui, dans le monde politique européen, est étroitement lié aux discussions sur la mise en œuvre de l’ensemble de la loi sur l’IA et sur les ressources à consacrer à son application effective. (Source : Reddit)
Conclusion : une feuille de route réglementaire incomplète ?
Alors que les règles de l’UE en matière d’IA devraient entrer en vigueur en août 2026, le temps presse pour combler ces lacunes réglementaires. Le défi n’est pas seulement technique, mais aussi institutionnel et politique : adapter le cadre législatif à un monde dans lequel les systèmes d’IA ne fonctionnent plus comme des silos isolés, mais comme faisant partie de réseaux complexes capables de générer des risques collectifs imprévisibles.
La reformulation de l'approche de l'article 73 pourrait devenir une bataille clé pour garantir que l'Europe non seulement impose des obligations de conformité, mais construise un modèle de gouvernance pourIA résiliente et responsable.
