Les grands experts de l'IA partagent un message sur le "risque d'extinction": 22 mots suffisent

Les grands experts de l’IA partagent un message sur le « risque d’extinction »: 22 mots suffisent

Le développement de l’intelligence artificielle bat son plein, mais devant tous les avantages qu’elle peut apporter, il y a aussi les problèmes potentiels qu’elle peut engendrer. Un groupe d’experts en intelligence artificielle a voulu influer sur ces risques, et l’a fait de manière très particulière.

Un message de 22 mots. Le Center for AI Safety est une ONG dont l’objectif est de « réduire les risques sociétaux posés par l’IA ». Le « AI Risk Statement » a été publié sur son site internet, réunissant divers experts en IA, universitaires, journalistes et régulateurs. Tous ont voulu mettre en garde contre les dangers de développer cette technologie de manière inappropriée, et pour cela ils ont utilisé un message percutant de seulement 22 mots (27 dans sa traduction espagnole) :

« Atténuer le risque d’extinction de l’IA devrait être une priorité mondiale, avec d’autres risques sociétaux comme les pandémies et la guerre nucléaire. »

De grandes personnalités le signent. Parmi les signataires figurent Geoffrey Hinton —qualifié de « parrain de l’IA »—, Yoshua Bengio —Turing Award 2018—, Demis Hassabis —CEO de DeepMind—, Dario Amodei —CEO d’Anthropic—, Kevin Scott —CTO de Microsoft—, Bruce Schneier —l’un des plus grands experts en cybersécurité— ou Sam Altman —PDG d’OpenAI—. Il y a beaucoup plus de personnalités, et en fait tout expert peut rejoindre la déclaration sous la forme proposée sur le site Web de la déclaration.

mais d’autres non. Il y a des absences singulières, comme celles de Yann LeCun —responsable de l’IA chez Meta—, Mark Zuckerberg, Bill Gates —enthousiaste mais aussi prudent face à cette révolution— ou Elon Musk. Ce dernier cas est notable, d’autant plus qu’il était l’un des grands partisans de la récente tentative de suspendre le développement des modèles d’IA pendant six mois.

un moment délicat. Le message arrive à un moment particulier, puisque des plateformes comme ChatGPT ont déclenché une véritable révolution qui a attiré des millions de personnes et de nombreuses entreprises. En fait, il est le moteur de l’impulsion économique de plusieurs entreprises Big Tech – avec NVIDIA en tête -, mais en même temps, d’importants débats sont générés tant aux États-Unis qu’en Europe sur la manière de réguler leur développement. .

Lettre ouverte. Comme le souligne le New York Times, Dan Hendrycks, responsable du Center for AI Safety, a indiqué qu’il s’agit d’une lettre ouverte qui permet aux experts de se joindre publiquement à l’inquiétude face au développement frénétique de ce domaine. « Il y a une idée fausse, même dans la communauté de l’IA, selon laquelle il n’y a qu’une poignée de catastrophistes. Mais en fait, de nombreuses personnes expriment en privé leur inquiétude à propos de ces choses. »

C’est surtout un avertissement de plus. Le message n’est en fait pas nouveau. Eliezer Yudkowsky a déclaré il y a des mois qu’il serait préférable d’avoir une guerre nucléaire que de développer des systèmes d’IA avancés. Même ainsi, le message souligne que de nombreux experts voient effectivement des dangers évidents dans ce déploiement inhabituel de systèmes d’intelligence artificielle. Geoffrey Hinton a par exemple mis en garde contre la menace de désinformation, tandis que Sam Altman a déclaré au Congrès avec un message plus générique mais tout aussi inquiétant : « Je pense que si cette technologie va mal, elle peut aller assez mal. »