J’ai travaillé chez Google et maintenant je suis chercheur en intelligence artificielle. Voici pourquoi il est sage de ralentir le développement de l’IA
Est-il temps de freiner le développement de l’intelligence artificielle (IA) ? Si vous vous êtes tranquillement posé cette question, vous n’êtes pas seul.
La semaine dernière, une foule de sommités de l’IA ont signé un lettre ouverte appelant à une pause de six mois sur le développement de modèles plus puissants que GPT-4; Chercheurs européens appelé pour une réglementation plus stricte de l’IA ; et Eliezer Yudkowsky, chercheur et critique de longue date en IA, a exigé un arrêt complet du développement de l’IA dans les pages du magazine TIME.
Pendant ce temps, l’industrie ne montre aucun signe de ralentissement. En mars, un cadre supérieur de l’IA chez Microsoft aurait a parlé de la pression « très, très élevée » du directeur général Satya Nadella pour que le GPT-4 et d’autres nouveaux modèles soient rendus publics « à très grande vitesse ».
J’ai travaillé chez Google jusqu’en 2020, date à laquelle je suis parti étudier le développement responsable de l’IA, et maintenant je recherche la collaboration créative homme-IA. Je suis enthousiasmé par le potentiel de l’intelligence artificielle, et je pense qu’elle inaugure déjà une nouvelle ère de créativité. Cependant, je pense qu’une pause temporaire dans le développement de systèmes d’IA plus puissants est une bonne idée. Laissez-moi vous expliquer pourquoi.
Qu’est-ce que GPT-4 et que demande la lettre ?
La lettre ouverte publiée par l’association américaine Institut du futur de la vie fait une demande simple aux développeurs d’IA :
« Nous appelons tous les laboratoires d’IA à suspendre immédiatement pendant au moins 6 mois la formation des systèmes d’IA plus puissants que GPT-4. »
Alors, qu’est-ce que le GPT-4 ? Comme son prédécesseur GPT-3.5 (qui alimente le populaire chatbot ChatGPT), GPT-4 est une sorte de logiciel d’IA génératif appelé « grand modèle de langage », développé par OpenAI.
GPT-4 est beaucoup plus grand et a été formé sur beaucoup plus de données. Comme d’autres grands modèles de langage, GPT-4 fonctionne en devinant le mot suivant en réponse aux invites, mais il est néanmoins incroyablement capable.
Lors des tests, il a réussi les examens juridiques et médicaux et peut écrire des logiciels mieux que les professionnels dans de nombreux cas. Et sa gamme complète de capacités est encore à découvrir.
Bon, mauvais et tout simplement perturbateur
GPT-4 et des modèles similaires sont susceptibles d’avoir des effets considérables sur de nombreuses couches de la société.
En revanche, ils pourraient renforcer la créativité humaine et la découverte scientifique, réduire les obstacles à l’apprentissage et être utilisés dans des outils pédagogiques personnalisés. En revanche, ils pourraient faciliter les attaques de phishing personnalisées, produire de la désinformation à grande échelle et être utilisés pour pirater la sécurité du réseau autour des systèmes informatiques qui contrôlent infrastructure vitale.
OpenAI propre recherche suggère que des modèles comme GPT-4 sont des « technologies à usage général » qui auront un impact sur environ 80% de la main-d’œuvre américaine.
Couches de civilisation et rythme du changement
L’écrivain américain Stewart Brand a argumenté qu’une « civilisation saine » nécessite différents systèmes ou couches pour se déplacer à des vitesses différentes :
« Les couches rapides innovent, les couches lentes stabilisent. L’ensemble allie apprentissage et continuité. »
Dans le modèle « calques de rythme » de Brand, les couches inférieures changent plus lentement que les couches supérieures.
La technologie est généralement placée près du sommet, quelque part entre la mode et le commerce. Des éléments tels que la réglementation, les systèmes économiques, les garde-corps de sécurité, les cadres éthiques et d’autres aspects existent dans les couches de gouvernance, d’infrastructure et de culture plus lentes.
À l’heure actuelle, la technologie s’accélère beaucoup plus rapidement que notre capacité à la comprendre et à la réglementer, et si nous n’y prenons pas garde, elle entraînera également des changements dans les couches inférieures qui sont trop rapides pour la sécurité.
Le sociobiologiste américain EO Wilson décrit les dangers d’une inadéquation dans les différents rythmes de changement comme ceci :
« Le vrai problème de l’humanité est le suivant : nous avons des émotions paléolithiques, des institutions médiévales et une technologie divine. »
Y a-t-il de bonnes raisons de maintenir le rythme rapide actuel ?
Certains affirment que si les meilleurs laboratoires d’IA ralentissent, d’autres acteurs non alignés ou des pays comme la Chine les devanceront.
Cependant, la formation de systèmes d’IA complexes n’est pas facile. OpenAI est en avance sur ses concurrents américains (dont Google et Meta), et les développeurs en Chine et dans d’autres pays sont également à la traîne.
Il est peu probable que des « groupes voyous » ou des gouvernements dépassent les capacités du GPT-4 dans un avenir prévisible. La plupart des talents, des connaissances et de l’infrastructure informatique de l’IA sont concentré dans une poignée de laboratoires de pointe.
Autres critiques de la lettre du Future of Life Institute disent qu’elle repose sur une perception exagérée des capacités actuelles et futures de l’IA.
Cependant, que vous croyiez ou non que l’IA atteindra un état de superintelligence générale, il est indéniable que cette technologie aura un impact sur de nombreuses facettes de la société humaine. Prendre le temps de laisser nos systèmes s’adapter au rythme du changement semble sage.
Ralentir est sage
Bien qu’il y ait beaucoup de place pour des désaccords sur des détails spécifiques, je crois que la lettre du Future of Life Institute pointe dans une direction sage : s’approprier le rythme du changement technologique.
Malgré ce que nous avons vu des perturbations causées par les médias sociaux, la Silicon Valley a toujours tendance à suivre la tristement célèbre devise de Facebook « aller vite et casser des choses. »
Je pense qu’une sage ligne de conduite consiste à ralentir et à réfléchir à l’endroit où nous voulons emmener ces technologies, permettant à nos systèmes et à nous-mêmes de nous adapter et de nous engager dans des conversations diverses et réfléchies. Il ne s’agit pas de s’arrêter, mais plutôt d’avancer à un rythme de progrès durable. Nous pouvons choisir de diriger cette technologie, plutôt que de supposer qu’elle a une vie propre que nous ne pouvons pas contrôler.
Après réflexion, j’ai ajouté mon nom à la liste des signataires de la lettre ouverte, qui, selon le Future of Life Institute, compte désormais quelque 50 000 personnes. Même si un moratoire de six mois ne résoudra pas tout, il serait utile : il fixe la bonne intention, de donner la priorité à la réflexion sur les avantages et les risques plutôt qu’à des progrès non critiques, accélérés et motivés par le profit.