Si nous allons étiqueter l’IA comme un « risque d’extinction », nous devons clarifier comment cela pourrait se produire
Cette semaine, un groupe de chercheurs en intelligence artificielle bien connus et réputés ont signé une déclaration composée de 22 mots :
« Atténuer le risque d’extinction de l’IA devrait être une priorité mondiale aux côtés d’autres risques à l’échelle de la société tels que les pandémies et la guerre nucléaire. »
En tant que professeur d’IA, je suis également favorable à la réduction de tout risque et prêt à y travailler personnellement. Mais toute déclaration formulée de cette manière est vouée à créer l’alarme, de sorte que ses auteurs devraient probablement être plus précis et clarifier leurs préoccupations.
Selon la définition de l’Encyclopedia Britannica, l’extinction est « la disparition ou l’extermination d’une espèce ». J’ai rencontré de nombreux signataires de la déclaration, qui comptent parmi les scientifiques les plus réputés et les plus solides dans le domaine – et ils ont certainement de bonnes intentions. Cependant, ils ne nous ont donné aucun scénario tangible sur la façon dont un événement aussi extrême pourrait se produire.
Ce n’est pas la première fois que nous sommes dans cette situation. Le 22 mars de cette année, une pétition signée par un ensemble différent d’entrepreneurs et de chercheurs demandait une pause de six mois dans le déploiement de l’IA. Dans la pétition, sur le site Web de l’Institut Future of Life, ils ont exposé leur raisonnement : « Des risques profonds pour la société et l’humanité, comme le montrent des recherches approfondies et reconnus par les meilleurs laboratoires d’IA » – et ont accompagné leur demande d’une liste de questions rhétoriques:
« Devrions-nous laisser les machines inonder nos canaux d’information de propagande et de contrevérité ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont épanouissants ? Devrions-nous développer des esprits non humains qui pourraient éventuellement être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? Devrions-nous risquer de perdre de contrôle de notre civilisation ? »
Un sentiment d’alarme générique
Il est certainement vrai que, outre de nombreux avantages, cette technologie comporte des risques que nous devons prendre au sérieux. Mais aucun des scénarios susmentionnés ne semble tracer une voie spécifique vers l’extinction. Cela signifie que nous nous retrouvons avec un sentiment d’alarme générique, sans aucune action possible que nous puissions prendre.
Le site Web du Center for AI Safety, où la dernière déclaration est parue, décrit dans une section distincte huit grandes catégories de risques. Celles-ci incluent la « militarisation » de l’IA, son utilisation pour manipuler le système d’information, la possibilité que les humains finissent par devenir incapables de s’autogouverner, la facilitation de régimes oppressifs, etc.
À l’exception de la militarisation, on ne sait pas comment les autres risques – toujours terribles – pourraient conduire à l’extinction de notre espèce, et le fardeau de l’énoncer incombe à ceux qui le revendiquent.
La militarisation est une réelle préoccupation, bien sûr, mais ce que l’on entend par là doit également être clarifié. Sur son site Web, la principale préoccupation du Center for AI Safety semble être l’utilisation de systèmes d’IA pour concevoir des armes chimiques. Cela devrait être évité à tout prix, mais les armes chimiques sont déjà interdites. L’extinction est un événement bien précis qui appelle des explications bien précises.
Le 16 mai, lors de son audition au Sénat américain, Sam Altman, le PDG d’OpenAI, qui a développé le chatbot ChatGPT AI, a été invité à deux reprises à énoncer son pire scénario. Il a finalement répondu :
« Mes pires craintes sont que nous – le domaine, la technologie, l’industrie – causons un préjudice important au monde… C’est pourquoi nous avons créé l’entreprise [to avert that future] … Je pense que si cette technologie tourne mal, elle peut mal tourner. »
Mais bien que je sois fermement en faveur d’être aussi prudent que possible, et que je l’ai dit publiquement au cours des dix dernières années, il est important de maintenir un sens des proportions, en particulier lorsqu’il est question de l’extinction d’une espèce de huit milliards personnes.
L’IA peut créer des problèmes sociaux qu’il faut vraiment éviter. En tant que scientifiques, nous avons le devoir de les comprendre et ensuite de faire de notre mieux pour les résoudre. Mais la première étape consiste à les nommer et à les décrire, et à être précis.