Les États-Unis et l’Europe ont des positions opposées sur la réglementation de l’IA.  Il existe une troisième voie : le Japon

Le G7 s’accorde sur des règles mondiales pour l’IA. La solution japonaise a gagné

Le G7 a déjà un accord sur l’intelligence artificielle. Et ça n’a pas été facile de l’atteindre. L’enjeu est de savoir comment réguler une technologie destinée à tout changer. Et il y eut plusieurs visions antagonistes. D’une part, celle des États-Unis, favorables à ne pas mettre d’obstacles à son développement, et d’autre part, celle de pays comme la France ou l’Allemagne, qui partagent la vision européenne d’une régulation plus stricte de l’IA. .

La troisième voie est imposée. C’est en mai que le Japon a proposé la création du « Processus d’Hiroshima sur l’IA ». Un forum intergouvernemental dont le but est de discuter de la manière de réglementer l’IA et de se rapprocher de la création de normes internationales pour une IA « digne de confiance ».

Ce processus a été la troisième voie qui a finalement gagné. Entre le dilemme de l’Europe face aux États-Unis, le Japon s’est présenté comme un point intermédiaire. Le gouvernement japonais a proposé une réglementation plus laxiste, mais suffisamment concrète pour répondre aux problèmes de droit d’auteur ou d’exposition des données personnelles. Et c’est cette échelle que les dirigeants du G7 ont acceptée aujourd’hui dans un accord désormais officiel.

« Code de conduite pour l’IA. » L’accord du G7 prévoit l’établissement d’un code de conduite pour les développeurs d’intelligence artificielle. Il est composé d’une série d’idées que toutes les entreprises et développeurs d’IA devraient suivre.

Parmi les règles définies figurent certaines des suivantes :

  • Avant et pendant le déploiement : identifiez, évaluez et atténuez les risques.
  • Atténuez les vulnérabilités et les modèles d’abus.
  • Transparence sur les limitations et/ou utilisations inappropriées.
  • Partagez les informations de manière responsable avec d’autres organisations.
  • Mettre en œuvre des mesures pour protéger les données personnelles et la propriété intellectuelle.

Allons-y. Le G7 affirme que l’IA a un potentiel « innovant et transformateur », mais souligne également que les individus et la société doivent être « protégés ». Pour établir ce code de conduite, une feuille de route a été créée qui sera soutenue par différentes organisations internationales telles que l’Alliance mondiale sur l’IA et l’OCDE.

Outre le G7, d’autres pays, dont l’Espagne, devraient également participer et contribuer à promouvoir ces règles.

L'UE dispose déjà de son premier cadre pour réglementer l'IA : pas de reconnaissance faciale et plus de transparence pour ChatGPT

Elle n’est pas aussi complète que l’AI Act, mais elle va dans le même sens. L’Europe a joué un rôle important pour tenter de parvenir à cet accord. L’AI Act est une réglementation pionnière et a marqué bon nombre des lignes désormais présentes dans ce code de conduite destiné à être mis en œuvre à l’échelle mondiale.

Les États-Unis font un pas. Parallèlement à l’accord du G7, l’administration Biden a annoncé un décret réglementant l’intelligence artificielle, avec des exigences équivalentes au Code de conduite en matière de confidentialité et de sécurité.

Le problème : c’est volontaire. La grande différence entre cet accord du G7 et le règlement européen est que si le second sera une loi, il s’agit d’un accord sur des règles qui ne seront pas traduites en lois.

Le Code de conduite est la même chose. Une série de lignes directrices et de recommandations, mais volontaires. Autrement dit, des entreprises comme OpenAI, Google, Meta ou Microsoft ne seront pas obligées de s’y conformer. Il n’est pas exclu que ces mêmes entreprises finissent par signer l’accord, mais les dirigeants du G7 ont choisi de laisser cette décision entre les mains de ces entreprises privées.

|