Améliorer la robustesse de l'IA pour des systèmes plus sécurisés et plus fiables

Le monde commence enfin à réglementer l’intelligence artificielle : à quoi s’attendre des nouvelles lois américaines, européennes et chinoises ?

La plupart des applications courantes de l’intelligence artificielle (IA) exploitent sa capacité à analyser de grands volumes de données et à y détecter des modèles et des tendances. Les résultats peuvent aider à prédire le comportement futur des marchés financiers et du trafic urbain, et même aider les médecins à diagnostiquer une maladie avant l’apparition des symptômes.

Mais l’IA peut également être utilisée pour compromettre la confidentialité de nos données en ligne, automatiser le travail des gens et saper les élections démocratiques en inondant les réseaux sociaux de désinformation. Les algorithmes peuvent hériter de biais issus des données réelles utilisées pour les améliorer, ce qui pourrait entraîner, par exemple, une discrimination lors de l’embauche.

La réglementation de l’IA est un ensemble complet de règles prescrivant comment cette technologie doit être développée et utilisée pour remédier à ses dommages potentiels. Voici quelques-uns des principaux efforts déployés pour y parvenir et en quoi ils diffèrent.

La loi européenne sur l’IA et la déclaration de Bletchley

La loi sur l’IA de la Commission européenne vise à atténuer les dangers potentiels, tout en encourageant l’entrepreneuriat et l’innovation dans le domaine de l’IA. L’AI Safety Institute du Royaume-Uni, annoncé lors du récent sommet gouvernemental à Bletchley Park, vise également à trouver cet équilibre.

La loi de l’UE interdit les outils d’IA considérés comme comportant des risques inacceptables. Cette catégorie comprend des produits de « score social », où les personnes sont classées en fonction de leur comportement, et de reconnaissance faciale en temps réel.

La loi restreint également fortement l’IA à haut risque, la catégorie suivante. Ce label couvre les applications pouvant porter atteinte aux droits fondamentaux, notamment à la sécurité.

Les exemples incluent la conduite autonome et les systèmes de recommandation d’IA utilisés dans les processus de recrutement, les forces de l’ordre et l’éducation. Beaucoup de ces outils devront être enregistrés dans une base de données de l’UE. La catégorie à risque limité couvre les chatbots tels que ChatGPT ou les générateurs d’images tels que Dall-E.

Dans l’ensemble, les développeurs d’IA devront garantir la confidentialité de toutes les données personnelles utilisées pour « entraîner » – ou améliorer – leurs algorithmes et être transparents sur le fonctionnement de leur technologie. L’un des principaux inconvénients de cette loi est toutefois qu’elle a été élaborée principalement par des technocrates, sans une large participation du public.

Contrairement à l’AI Act, la récente Déclaration de Bletchley n’est pas un cadre réglementaire en soi, mais un appel à en développer un grâce à une collaboration internationale. Le Sommet sur la sécurité de l’IA de 2023, qui a donné lieu à la déclaration, a été salué comme une percée diplomatique car il a permis aux communautés politiques, commerciales et scientifiques du monde entier de s’entendre sur un plan commun qui fait écho à l’acte de l’UE.

Les États-Unis et la Chine

Les entreprises d’Amérique du Nord (en particulier des États-Unis) et de Chine dominent le paysage commercial de l’IA. La plupart de leurs sièges sociaux européens sont basés au Royaume-Uni.

Les États-Unis et la Chine rivalisent pour prendre pied dans le domaine de la réglementation. Le président américain Joe Biden a récemment publié un décret exigeant que les fabricants d’IA fournissent au gouvernement fédéral une évaluation de la vulnérabilité de leurs applications aux cyberattaques, les données utilisées pour entraîner et tester l’IA et ses mesures de performances.

Le décret américain met en place des incitations pour promouvoir l’innovation et la concurrence en attirant les talents internationaux. Il impose la mise en place de programmes éducatifs pour développer les compétences en IA au sein de la main-d’œuvre américaine. Il alloue également des fonds publics à des partenariats entre le gouvernement et des entreprises privées.

Les risques tels que la discrimination causée par l’utilisation de l’IA lors de l’embauche, des demandes de prêt hypothécaire et des condamnations judiciaires sont traités en exigeant que les chefs des départements exécutifs américains publient des lignes directrices. Cela définirait la manière dont les autorités fédérales devraient superviser l’utilisation de l’IA dans ces domaines.

Les réglementations chinoises en matière d’IA révèlent un intérêt considérable pour l’IA générative et les protections contre les deep fakes (images et vidéos produites de manière synthétique qui imitent l’apparence et la voix de personnes réelles mais véhiculent des événements qui ne se sont jamais produits).

L’accent est également mis sur la réglementation des systèmes de recommandation en matière d’IA. Il s’agit d’algorithmes qui analysent l’activité en ligne des internautes pour déterminer le contenu, y compris les publicités, à mettre en haut de leurs flux.

Pour protéger le public contre les recommandations jugées mal fondées ou préjudiciables sur le plan émotionnel, la réglementation chinoise interdit les fausses nouvelles et empêche les entreprises d’appliquer une tarification dynamique (fixant des primes plus élevées pour les services essentiels basées sur l’exploitation de données personnelles). Ils exigent également que toute prise de décision automatisée soit transparente pour ceux qu’elle affecte.

La voie à suivre

Les efforts réglementaires sont influencés par les contextes nationaux, tels que les préoccupations des États-Unis en matière de cyberdéfense, la position forte de la Chine sur le secteur privé et les tentatives de l’UE et du Royaume-Uni d’équilibrer le soutien à l’innovation et l’atténuation des risques. Dans leurs efforts visant à promouvoir une IA éthique, sûre et digne de confiance, les cadres mondiaux sont confrontés à des défis similaires.

Certaines définitions de termes clés sont vagues et reflètent la contribution d’un petit groupe de parties prenantes influentes. Le grand public a été sous-représenté dans le processus.

Les décideurs politiques doivent être prudents quant au capital politique important des entreprises technologiques. Il est essentiel de les impliquer dans les discussions sur la réglementation, mais il serait naïf de faire confiance à ces puissants lobbyistes pour se contrôler eux-mêmes.

L’IA fait son chemin dans le tissu économique, éclairant les investissements financiers, soutenant les soins de santé et les services sociaux nationaux et influençant nos préférences en matière de divertissement. Ainsi, celui qui définit le cadre réglementaire dominant a également la capacité de modifier l’équilibre mondial des pouvoirs.

Des questions importantes restent sans réponse. Dans le cas de l’automatisation des tâches, par exemple, l’idée reçue suggère que les apprentissages numériques et d’autres formes de reconversion transformeront la main-d’œuvre en scientifiques des données et en programmeurs d’IA. Mais de nombreuses personnes hautement qualifiées ne sont peut-être pas intéressées par le développement de logiciels.

Alors que le monde s’attaque aux risques et aux opportunités posés par l’IA, nous pouvons prendre des mesures positives pour garantir le développement et l’utilisation responsables de cette technologie. Pour soutenir l’innovation, les systèmes d’IA nouvellement développés pourraient commencer dans la catégorie à haut risque – telle que définie par la loi européenne sur l’IA – et être rétrogradés vers des catégories à moindre risque à mesure que nous explorons leurs effets.

Les décideurs politiques pourraient également tirer des leçons des industries hautement réglementées, comme celles de la drogue et du nucléaire. Elles ne sont pas directement analogues à l’IA, mais de nombreuses normes de qualité et procédures opérationnelles régissant ces domaines économiques critiques pour la sécurité pourraient offrir des informations utiles.

Enfin, la collaboration entre tous ceux concernés par l’IA est essentielle. L’élaboration des règles ne doit pas être laissée aux seuls technocrates. Le grand public a besoin d’avoir son mot à dire sur une technologie qui peut avoir de profondes répercussions sur sa vie personnelle et professionnelle.