L'UE définit les conseils sur l'interdiction des utilisations nocives d'IA

L’UE définit les conseils sur l’interdiction des utilisations nocives d’IA

Surveillance de masse, détection des émotions, score social: les régulateurs de l’UE ont établi mardi quels types d’outils d’intelligence artificielle doivent être interdits comme trop dangereux en vertu de la loi sur l’IA pionnière du bloc.

Les dispositions interdisant les utilisations de la technologie réputées poser un risque inacceptable sont entrées en vigueur cette semaine, bien que les 27 États de l’Union européenne auront jusqu’en août pour désigner un régulateur pour les appliquer.

Adopté l’année dernière, les règles de l’UE visent à éviter les abus de la technologie naissante sans entraver l’innovation en Europe, qui fait face à un défi difficile alors que les États-Unis et la Chine facturent à l’avance dans le domaine de l’IA.

La loi, considérée comme la réglementation de l’IA la plus complète au monde, adopte une approche basée sur les risques: si un système est à haut risque, une entreprise aura un ensemble d’obligations plus strictes à remplir avant d’être autorisée dans l’UE.

Les nouvelles directives visent à fournir une clarté juridique à la fois aux régulateurs et aux entreprises sur ce qui utilise une interdiction pure et simple, a déclaré un haut responsable de la Commission européenne.

Le responsable a souligné que les directives non contraignantes visent à offrir des «informations» sur la compréhension de la Commission des interdictions et que la Cour de justice de l’Union européenne établira des interprétations faisant autorité de la nouvelle loi.

Les entreprises en violation des règles font face à des amendes pouvant aller jusqu’à sept pour cent des revenus annuels mondiaux, ou des amendes pouvant atteindre 35 millions d’euros (37 millions de dollars) – ce qui est plus élevé.

La Commission a énoncé huit cas justifiant une interdiction:

1. Identifier les gens en temps réel en utilisant des caméras dans les espaces publics

La loi interdit l’utilisation de systèmes d’IA équipés de caméras pour l’identification biométrique en temps réel dans les espaces publics à des fins d’application de la loi. L’objectif est d’empêcher les scénarios où un individu pourrait être ramassé par la police sans recouper des informations réelles. Des exceptions existent, comme la prévention des menaces spécifiques, y compris les attaques terroristes.

2. Score social basé sur des données personnelles sans rapport avec le risque

Les règles interdisent à l’utilisation de l’IA pour classer la probabilité des gens de défaut sur un prêt ou de commettre une fraude sociale en protection sociale, par exemple, en s’appuyant sur des données personnelles sans rapport avec le contexte, telles que l’origine, la couleur de la peau ou le comportement sur les réseaux sociaux.

3. Évaluation du risque criminel basé sur les données biométriques seules

La police ne peut pas utiliser l’IA pour prédire le risque de comportement criminel d’un individu, comme la participation à des émeutes ou commettre une attaque, basée uniquement sur des caractéristiques faciales ou d’autres caractéristiques personnelles, sans prendre en compte des faits objectifs et vérifiables directement liés à leurs actions.

4. Stracage des images en ligne pour créer des bases de données de reconnaissance faciale

L’AI ACT interdit les outils qui parcourent les images Internet et CCTV pour extraire sans discrimination des images faciales et créer des bases de données à grande échelle de milliards d’images – ce qui équivaudrait à la surveillance de l’État.

5. Détection des émotions dans les lieux de travail et les lieux d’éducation

Les organisations ne peuvent pas utiliser de webcams ou de systèmes de reconnaissance vocale pour détecter les émotions des gens.

6. Manipulation du comportement à l’aide de l’IA

L’intégration des systèmes d’IA trompeurs ou subliminaux dans la conception d’une interface pour pousser les utilisateurs à effectuer un achat est interdit.

7. Exploiter les vulnérabilités liées à l’âge ou à l’invalidité

Les règles interdisent les jouets basés sur l’IA ou d’autres systèmes destinés aux enfants, aux personnes âgées ou autrement vulnérables, conçues pour encourager un comportement potentiellement nautique.

8. Inférer des opinions politiques ou une orientation sexuelle basée sur des données biométriques

Les systèmes qui prétendent déduire les opinions politiques des gens ou l’orientation sexuelle de l’analyse de leur visage ne seront pas autorisés dans l’UE en vertu de la loi sur l’IA.