Commissione Ue_Bruxelles_Berlaymont

AI Act : Bruxelles prête à reporter certaines parties du texte du paquet de simplification

L’AI Act, entré en vigueur en août 2024 (Stratégie numérique européenne), a été conçu comme « le cadre réglementaire le plus ambitieux en matière d’intelligence artificielle » au niveau mondial. Objectif déclaré : promouvoir une IA « centrée sur l’humain et fiable », tout en garantissant des normes élevées de protection de la santé, de la sécurité, des droits fondamentaux et de l’État de droit.
Ces derniers mois, la Commission européenne a ouvert une consultation pour évaluer « comment simplifier les règles sur les données, la cybersécurité et l'intelligence artificielle » dans le cadre du paquet défini «Omnibus numérique» (Stratégie numérique européenne)
En parallèle, diverses associations professionnelles et entreprises technologiques (européennes et américaines) ont fait part de leurs inquiétudes quant à la charge bureaucratique excessive, au manque de clarté de la réglementation et au risque que la rigidité du régime pénalise la compétitivité européenne.
Par ailleurs, les pressions internationales – notamment de la part des États-Unis – et la crainte de représailles commerciales ou technologiques ont contribué à un climat de révision.

Que prévoit le projet d'amendement de la Commission européenne

Selon le projet de proposition qui circule (publié par le Financial Times), et qui sera discuté le 19 novembre, la Commission envisage :

  • accorder aux entreprises ayant déjà mis sur le marché des systèmes génératifs d'IA une « pause » d'un an pour s'adapter à la nouvelle réglementation (« délai de grâce ») ;
  • reporter l’entrée en vigueur des sanctions en cas de violation des nouvelles règles de transparence en matière d’IA jusqu’en août 2027, afin de « laisser suffisamment de temps aux opérateurs pour s’adapter » ;
  • réduire les coûts et les obligations de conformité pour les entreprises et centraliser l’application de la loi par l’intermédiaire d’une autorité européenne unique en matière d’IA.

« L'UE n'a pas l'intention de rouvrir radicalement la loi sur l'IA, mais plutôt de simplifier sa mise en œuvre, en rendant les obligations des entreprises plus claires et moins lourdes sans réduire la protection des droits et de la sécurité », commente Giuseppe Corasaniti, professeur d'informatique juridique et d'éthique numérique à l'Université Mercatorum. « Un code de conduite commun suit cette logique, qui aidera à classer les modèles d'IA en fonction des risques économiques et professionnels, en indiquant quelles technologies peuvent être considérées comme sûres et lesquelles devront se conformer à des obligations plus strictes, encourageant une conformité plus prévisible, au moins pour les modèles d'IA génératifs les plus répandus, au moment où la loi sur l'IA deviendra pleinement opérationnelle », ajoute Corasaniti.

Critiques et risques de repenser

D'un côté, les partisans des droits numériques craignent qu'une « simplification » ne se transforme de facto en déréglementation, affaiblissant les garanties introduites par la loi sur l'IA.
D’un autre côté, les opérateurs technologiques préviennent que des règles trop strictes avant qu’un cadre opérationnel et standardisé ne soit disponible risquent de créer de l’incertitude et d’entraver l’innovation en Europe.
Un point critique reste l'équilibre entre protection et compétitivité : comme l'a déclaré un ministre danois, « s'il y a certains aspects qui pourraient être simplifiés ou rendus plus faciles à interpréter pour les entreprises, il serait stupide de ne pas le faire ».

« Le problème est beaucoup plus vaste – souligne Corasaniti -, car la configuration même du règlement – ​​conçu comme une législation générale et non sectorielle – rend très difficile en pratique la définition de méthodes communes de mise en œuvre dans des secteurs très différents.

Implications pour l'Italie et le marché européen

Pour les entreprises italiennes et européennes opérant dans le secteur de l’IA, la révision proposée comporte une fenêtre d’opportunité et de risque : opportunité car la charge réglementaire pourrait diminuer ; risque, car l’incertitude réglementaire pourrait perdurer.
En outre, un éventuel affaiblissement du droit européen pourrait favoriser les entités non membres de l'UE qui bénéficient déjà de réglementations moins strictes, réduisant ainsi l'avantage concurrentiel de l'Europe en tant que « marché sûr ».
Enfin, si la simplification était perçue comme une cession aux grandes entreprises ou aux pressions extérieures, cela pourrait saper la confiance dans les régulateurs européens et dans les mécanismes permettant d’équilibrer l’innovation et les droits.

Conclusion

La refonte de la réglementation sur l'intelligence artificielle par la Commission européenne ne représente pas un retour en arrière sur le fond des objectifs fixés – à savoir une IA sûre, éthique et compétitive – mais l'un des défis réglementaires majeurs présents : comment créer une loi à la fois rigoureuse et pragmatique, capable de garantir les droits fondamentaux sans étouffer l'innovation.
La décision attendue le 19 novembre mettra en lumière l'équilibre choisi par Bruxelles entre rigueur réglementaire et flexibilité industrielle.