AI Act : dix semaines pour se conformer aux règles sur les systèmes d’intelligence artificielle interdits
LE'Loi sur l'IA Il est entré en vigueur le 1er août 2024 et constitue le premier cadre juridique au monde qui traite des risques liés à l’IA et fournit aux développeurs et aux utilisateurs des orientations claires sur les exigences et les obligations. Entre autres, il a identifié certaines catégories de Des systèmes d'IA considérés comme particulièrement dangereux, pour lesquels l'interdiction d'utilisation prend effet à partir du 2 février 2025.
Leur utilisation pourrait conduire, à partir du 2 août 2025, à la possibilité pour les autorités nationales des pays de l'UE d'imposer des amendes allant jusqu'à 35 millions d'euros ou 7% du chiffre d'affaires mondial du groupe (en fonction de la valeur la plus élevée) en vertu de l'article 99( 3) de la loi IA.
AI Act : dix semaines pour assurer la conformité
Avec moins de dix semaines pour garantir leur conformité, les entreprises doivent commencer à évaluer leurs risques dans ce domaine et élaborer des plans pour remédier à tout domaine de non-conformité potentielle. Les amendes ont été fixées à un niveau encore plus élevé que dans le cadre du RGPD et nous attendons de l'UE qu'elle applique le nouveau régime dès le premier jour.; nous ne nous attendons pas à un délai de grâce en cas de non-conformité comme c'est le cas avec le RGPD. La Commission européenne considère qu'un préavis suffisant a été donné pour permettre à toutes les entreprises de l'UE de s'y conformer, y compris celles appartenant à l'Espace économique européen (EEE) et les entreprises internationales ayant des clients et des sites Web opérant dans l'UE.
Il est crucial que les entreprises commencent à analyser les systèmes et modèles d’IA qu’elles utilisent déjà et qu’elles envisagent d’utiliser dans un avenir proche.. En informatique, les cycles de développement peuvent être assez longs, il est donc important non seulement de mettre en œuvre un processus pour éliminer l'IA interdite, mais également d'évaluer les mesures à prendre pour se conformer aux obligations de la loi sur l'IA.
Il s'agit notamment des exigences de transparence, des systèmes de gestion des risques et du besoin de documentation. La conformité des logiciels devient de plus en plus une question de responsabilité du fait des produits, et la loi sur l'IA est désormais un élément clé de ce processus.
Les interdictions établies par l'art. 5 de la loi IA
Les interdictions, énoncées à l'article 5 de la loi sur l'IA, couvrent les utilisations de systèmes d'IA qui présentent des risques considérés comme inacceptables pour la santé, la sécurité ou les droits fondamentaux. Ceux-ci incluent :
- les systèmes d’intelligence artificielle qu’ils utilisent techniques subliminales, manipulatrices ou trompeusesvisant à déformer matériellement le comportement d'une personne, compromettant sa capacité à prendre une décision éclairée et l'amenant à prendre une décision qu'elle n'aurait pas prise autrement, entraînant un préjudice important.
- les systèmes d’intelligence artificielle qu’ils exploitent les vulnérabilités d'une personne dues à son âge, son handicap, ses conditions sociales ou économiques pour fausser son comportement, causant un préjudice important. Comme pour l’interdiction des « techniques trompeuses », cela affectera probablement les fournisseurs de systèmes permettant la vente ou les jeux en ligne.
- Score social fondé sur un comportement ou des caractéristiques personnelles qui entraînent un traitement préjudiciable à l'égard d'une personne dans un contexte social sans rapport avec le lieu où les données de notation ont été initialement collectées, ou qui sont injustifiés ou disproportionnés. Les préoccupations ici concernent les outils d’intelligence artificielle utilisés par les médias sociaux pour classer les comportements.
- des systèmes d'intelligence artificielle qui créer ou étendre des bases de données de reconnaissance faciale grâce au scraping des images faciales non ciblées provenant d’Internet ou de séquences de vidéosurveillance. L’objectif est d’empêcher explicitement l’introduction dans l’UE de modèles commerciaux similaires à Clearview, une entreprise américaine qui collectait illégalement des images faciales publiées sur Internet et les utilisait dans un système de reconnaissance faciale fourni aux autorités policières de l’UE.
- les systèmes pour déduire les émotions d'une personne utilisé sur le lieu de travail ou dans un cadre éducatif (sauf pour des raisons médicales ou de sécurité).
- les systèmes de catégorisation biométrique où des informations telles que le visage ou les empreintes digitales d'une personne sont utilisées pour déduire des caractéristiques sensibles telles que la race, les opinions politiques, l'appartenance syndicale, les croyances religieuses ou philosophiques, la vie sexuelle ou l'orientation sexuelle (avec des exceptions pour les forces de l'ordre).
- les systèmes d’intelligence artificielle utilisés pour prédire la probabilité qu'une personne commette un crimebasé exclusivement sur le profil ou l'évaluation de ses traits de personnalité (ce que l'on appelle l'exclusionRapport minoritaire», du nom du film du même nom).
- les systèmes de reconnaissance faciale à distance en temps réel utilisé dans les espaces accessibles au public pour le maintien de l'ordre, à quelques exceptions près.
Les dispositions complémentaires de la loi
L’Office européen pour l’IA n’a pas encore fourni d’informations détaillées sur chacun de ces points. Pour les entreprises utilisant des systèmes d’intelligence artificielle, la loi prévoit une série de dispositions complémentaires qui entreront progressivement en vigueur au cours des prochaines années :
- 2 août 2025 : Les dispositions sur l’IA à usage général entreront en vigueur, tout comme les dispositions sur la notification, la gouvernance, les sanctions et la confidentialité.
- 2 août 2026 : la plupart des autres dispositions s'appliqueront, y compris les règles relatives aux modèles à haut risque définies à l'annexe III.
- 2 août 2027: Les règles relatives aux IA à haut risque contenues dans des systèmes ou des produits déjà soumis à la législation européenne sur la sécurité des produits, telles qu'énumérées à l'annexe I, s'appliqueront.
Insight d'Osborne Clarke : Réussir avec l'IA.