Apprendre à des robots à apprendre à d'autres robots

Un organisme international devra superviser la réglementation de l’IA, mais nous devons réfléchir attentivement à sa forme.

L’intelligence artificielle (IA) aura un impact sociétal majeur à l’échelle mondiale. Il est donc plus urgent que jamais que les dirigeants des États coopèrent pour réglementer cette technologie.

Plusieurs appels ont déjà été lancés : la déclaration de Bletchley lors d’un récent sommet au Royaume-Uni et les 11 principes et codes de conduite en matière d’IA convenus par les dirigeants du G7, par exemple. Mais ceux-ci expriment en grande partie une évidence. La vraie question n’est pas de savoir si une coopération internationale en matière d’IA est nécessaire, mais comment la mettre en œuvre ?

Le moyen le plus évident d’y parvenir de manière à maximiser les avantages de l’IA et à mettre en place des « garde-fous » – des contrôles – pour gérer les risques importants posés, est de créer un organisme intergouvernemental.

En effet, une idée est de créer une Organisation mondiale de la technologie. D’autres plaident en faveur d’un organisme similaire à l’Agence internationale de l’énergie atomique (AIEA), établissant une comparaison entre l’IA et les armes nucléaires en termes de risques posés.

Une autre vision consiste à développer un cadre institutionnel inspiré d’entités telles que le Cern, le projet du génome humain ou la Station spatiale internationale (ISS).

Cependant, la création d’une organisation internationale spécialisée dans l’IA ou la technologie, quel que soit son nom, se heurte à trois défis particulièrement difficiles.

Frictions entre pouvoirs

Premièrement, l’IA étant une technologie à double usage – ce qui signifie qu’elle peut être déployée à des fins à la fois pacifiques et militaires – il est peu probable que les grandes puissances soient disposées à s’unir pour former une institution mondiale capable de contrôler de manière significative son développement et son développement. utiliser.

La guerre des puces entre les États-Unis et la Chine bat son plein. La technologie de l’IA fait également l’objet d’une intense concurrence géopolitique. Les frictions entre les grandes puissances créent de sérieux obstacles à la coopération internationale, en particulier dans le domaine de l’IA.

En fait, les institutions internationales existantes, construites après la Seconde Guerre mondiale, sont déjà structurellement affectées par les frictions interétatiques. Par exemple, le Conseil de sécurité de l’ONU continue d’être paralysé sur les plus grandes controverses d’intérêt international aujourd’hui.

L’Organe d’appel de l’Organisation mondiale du commerce, l’un des mécanismes internationaux les plus efficaces pour statuer sur les questions commerciales dans le passé, est actuellement dysfonctionnel parce que les États-Unis refusent d’approuver la nomination de juges en son sein. Mais, même avant sa disparition, j’ai soutenu qu’il se heurtait à d’importants déficits structurels.

Les grandes institutions financières internationales sont également confrontées à de sérieux défis en matière de gouvernance. Les dirigeants du G20 ont récemment appelé à des réformes de la Banque mondiale et du Fonds monétaire international (FMI) et à une définition plus claire de leurs rôles.

Avec les institutions internationales existantes en crise, il est difficile d’imaginer qu’une organisation internationale autonome pour réglementer l’IA puisse être créée dans un avenir proche.

Que fera une organisation axée sur l’IA ?

Deuxièmement, même si la communauté internationale accepte d’une manière ou d’une autre de créer un organisme de réglementation spécifique à l’IA ou à la technologie, la question demeure : que fera réellement cette organisation ? Une organisation axée sur l’IA chercherait-elle à renforcer la coopération scientifique entre différents groupes de recherche, ou tenterait-elle de coordonner la réglementation de l’IA entre les pays ?

Une telle organisation créerait-elle un régime de surveillance pour garantir que seule une IA centrée sur l’humain, digne de confiance et responsable soit développée ? Comment un tel régime pourrait-il entrer en vigueur et assurer son application ? Serait-il également mandaté pour aider les pays en développement et les pays les moins avancés à réaliser tout le potentiel de l’IA ?

Les préoccupations en matière de souveraineté, de sécurité nationale, d’intérêt national perçu et, en fin de compte, les différentes approches adoptées en matière d’IA signifient qu’il sera probablement difficile de parvenir à un consensus valable sur ce qu’une telle organisation devrait faire pendant un certain temps. Nous constatons déjà différents choix concernant les cadres réglementaires et le déploiement de l’IA. Alors que la loi européenne sur l’IA interdit le score social et la reconnaissance faciale en temps réel, les États autoritaires adoptent une approche différente.

Il est donc important de ne pas se laisser emporter par des déclarations généralisées de la communauté internationale, donnant l’impression qu’un droit international sur l’IA est en train d’émerger. Personne ne contestera que la société doit être protégée des risques posés par l’IA. Son déploiement ne devrait pas porter atteinte aux droits de l’homme et il devrait être sûr et fiable.

Mais c’est la traduction de ces principes généralisés en engagements spécifiques pris dans le droit international qui pose un défi de taille.

Les évaluations des risques sur les outils d’IA peuvent donner des résultats distincts selon la personne qui les réalise. Les droits à privilégier – droits individuels ou intérêts de sécurité – peuvent différer selon les pays. Il en va de même pour ce qui constitue les formes éthiques de l’IA.

Quel rôle pour les acteurs privés ?

Le troisième défi majeur dans la création d’un organisme international de surveillance concerne le caractère institutionnel qui devrait être adopté. Cela inclut le rôle accordé au secteur privé dans tout cadre de gouvernance.

Compte tenu du rôle très important du secteur privé dans le développement et le déploiement d’outils d’IA, un modèle de gouvernance public-privé conjoint pourrait être la seule option réaliste. À l’heure actuelle, ce sont les pays qui sont les acteurs centraux de la communauté internationale.

L’intégration d’entreprises privées dans une structure de gouvernance internationale qui favorise généralement les nations par rapport à tout le reste pourrait poser des problèmes. C’est un défi qui doit être surmonté avant la création d’une telle organisation.

Enfin, une coopération internationale en matière d’IA existe déjà dans une certaine mesure. Des organisations, dont l’OCDE, l’UNESCO et l’Organisation internationale de normalisation, ont déjà élaboré des recommandations ou des normes dans leurs domaines d’expertise.

D’autres organismes, comme l’Organisation internationale du travail et l’Organisation mondiale de la santé, ont commencé à prendre en compte l’impact de l’IA dans leurs mandats.

L’ONU a également créé un organisme consultatif de haut niveau sur l’IA pour entreprendre des analyses et formuler des recommandations pour la gouvernance internationale de cette technologie. Il est trop tôt pour déterminer si cette approche fragmentée peut conduire à une réponse réfléchie et coordonnée.

Jusqu’à ce que les circonstances soient réunies pour créer une organisation internationale autonome axée sur l’IA, ce qui est presque certain, c’est que des acteurs puissants, tels que les États-Unis – où sont basées la plupart des entreprises technologiques – et la loi sur l’IA de l’Union européenne auront une influence démesurée sur le contenu. de la réglementation et de la gouvernance de l’IA à l’échelle mondiale.