Comment nous ferons en sorte que l'intelligence artificielle ne devienne pas incontrôlable

Big Tech veut réguler l’IA. Mais ils mentent sur le pourquoi, dit l’expert Andrew Ng

Andrew Ng n’est pas n’importe qui. Ce professeur de l’Université de Stanford était co-fondateur de Google Brain, scientifique principal de la division IA de Baidu et expert qui défend depuis des années l’idée selon laquelle l’intelligence artificielle « est la nouvelle électricité ». Il l’a dit bien avant que le phénomène ChatGPT ne nous surprenne tous, mais il voit désormais un danger dans la façon dont les grandes entreprises technologiques font pression pour une réglementation dans ce domaine.

Big Tech veut réglementer pour quelque chose. Selon Ng, « la mauvaise idée selon laquelle l’IA pourrait entraîner notre extinction » se confond avec « la mauvaise idée selon laquelle une façon de rendre l’IA plus sûre est d’imposer de lourdes exigences en matière de licences ». C’est ce que soutiennent des entreprises comme OpenAI ou Microsoft, mais pour Andrew Ng, cette façon de réglementer fera qu’il y aura de grands gagnants et de grands perdants dans cette course.

Permis de contrôler. Dans une interview dans The Australian Financial Review, Ng a expliqué que « lorsque vous mettez ces deux mauvaises idées ensemble, vous obtenez l’idée colossalement stupide de propositions réglementaires qui tenteront de forcer l’octroi de licences pour l’IA ». Pour lui, il y aura des conséquences dangereuses s’il suit cette voie.

« Cela écrasera l’innovation ». Selon cet expert, ce type de régulation permettra aux grandes entreprises technologiques de ne pas avoir à concurrencer les évolutions du monde Open Source. La régulation, selon lui, « est une arme de groupes de pression » qui serait très préjudiciable à la communauté Open Source.

Sam Altman et la réglementation. Le PDG d’OpenAI plaide depuis des mois pour une réglementation du développement des systèmes d’IA, mais nous avons déjà parlé de la façon dont il s’agit d’une position qui répond aux intérêts de ladite entreprise. L’UE, qui fait progresser sa loi sur l’IA, est précisément tombée dans ce premier problème de l’Open Source.

ancien étudiant. Comme l’explique Ng, Altman était l’un de ses étudiants à Stanford et travaillait comme chercheur dans son département. « Je ne veux pas en parler spécifiquement, mais je pense que beaucoup de grandes entreprises gagneraient à ne pas avoir à rivaliser avec des modèles de langage open source. »

Il faut le réguler, mais de manière cohérente. Cet expert n’est pas contre la réglementation, mais s’inquiète de la direction que prennent ces décisions dans plusieurs pays. Pourtant, dit-il, « une réglementation réfléchie serait bien meilleure que l’absence de réglementation ». Parmi les questions à discuter, il y aurait la transparence des entreprises technologiques pour éviter les catastrophes, par exemple sur les réseaux sociaux.

Le Japon propose une issue. Cette semaine, cependant, une troisième voie s’est imposée : la proposition du Japon de créer le « Processus d’Hiroshima sur l’IA » est proposée comme une voie de réglementation plus laxiste, mais suffisamment concrète pour résoudre divers problèmes. Le processus a été accepté par le G7, une étape particulièrement importante qui atténue les tensions apparues entre la réglementation restrictive de l’UE et les doutes sur cette réglementation aux États-Unis.