Non, l’IA ne nous tuera probablement pas tous – et il y a plus dans cette campagne de peur qu’il n’y paraît
Doomsaying est une vieille occupation. L’intelligence artificielle (IA) est un sujet complexe. Il est facile de craindre ce que vous ne comprenez pas. Ces trois vérités expliquent en partie la simplification excessive et la dramatisation qui affligent les discussions sur l’IA.
Hier, les médias du monde entier ont reçu des nouvelles d’une autre lettre ouverte affirmant que l’IA constituait une menace existentielle pour l’humanité. Cette lettre, publiée par le Center for AI Safety à but non lucratif, a été signée par des figures de proue de l’industrie, dont Geoffrey Hinton et les directeurs généraux de Google DeepMind, Open AI et Anthropic.
Cependant, je dirais qu’une bonne dose de scepticisme est justifiée lorsque l’on considère le récit du prophète de malheur de l’IA. Après une inspection minutieuse, nous constatons qu’il existe des incitations commerciales à créer la peur dans l’espace de l’IA.
Et en tant que chercheur en intelligence artificielle générale (IAG), il me semble que la définition de l’IA comme une menace existentielle a plus en commun avec la philosophie du XVIIe siècle qu’avec l’informatique.
ChatGPT était-il une « souffle » ?
Lorsque ChatGPT est sorti à la fin de l’année dernière, les gens étaient ravis, amusés et horrifiés.
Mais ChatGPT n’est pas autant une percée dans la recherche qu’un produit. La technologie sur laquelle il repose date de plusieurs années. Une première version de son modèle sous-jacent, GPT-3, a été publiée en 2020 avec bon nombre des mêmes fonctionnalités. Ce n’était tout simplement pas facilement accessible en ligne pour que tout le monde puisse jouer avec.
En 2020 et 2021, moi et beaucoup d’autres avons écrit des articles sur les capacités et les lacunes du GPT-3 et des modèles similaires – et le monde a continué comme toujours. Passons à aujourd’hui, et ChatGPT a eu un impact incroyable sur la société. Qu’est ce qui a changé?
En mars, des chercheurs de Microsoft ont publié un article affirmant que GPT-4 montrait « des étincelles d’intelligence générale artificielle ». L’IAG fait l’objet d’une variété de définitions concurrentes, mais pour des raisons de simplicité, elle peut être comprise comme une IA dotée d’une intelligence au niveau humain.
Certains ont immédiatement interprété la recherche de Microsoft comme disant GPT-4 est une AGI. Selon les définitions d’AGI que je connais, ce n’est certainement pas vrai. Néanmoins, cela a ajouté au battage médiatique et à la fureur, et il était difficile de ne pas se laisser emporter par la panique. Les scientifiques ne sont pas plus à l’abri de la pensée de groupe que n’importe qui d’autre.
Le jour même de la soumission de l’article, The Future of Life Institute a publié une lettre ouverte appelant à une pause de six mois sur la formation de modèles d’IA plus puissants que GPT-4, pour permettre à chacun de faire le point et de planifier à l’avance. Certains des sommités de l’IA qui l’ont signé ont exprimé leur inquiétude quant au fait qu’AGI constitue une menace existentielle pour les humains et que ChatGPT est trop proche d’AGI pour le confort.
Peu de temps après, l’éminent chercheur en sécurité de l’IA, Eliezer Yudkowsky, qui commente les dangers de l’IA superintelligente depuis bien avant 2020, est allé plus loin. Il a affirmé que nous étions sur la voie de la construction d’une « intelligence artificielle surhumaine », auquel cas « la chose évidente qui se produirait » est « littéralement, tout le monde sur Terre mourra ». Il a même suggéré que les pays doivent être prêts à risquer une guerre nucléaire pour faire respecter la réglementation sur l’IA au-delà des frontières.
Je ne considère pas l’IA comme une menace existentielle imminente
L’un des aspects de la recherche sur la sécurité de l’IA consiste à aborder les dangers potentiels que l’IAG pourrait présenter. C’est un sujet difficile à étudier car il y a peu d’accord sur ce qu’est l’intelligence et comment elle fonctionne, sans parler de ce qu’une superintelligence pourrait impliquer. En tant que tels, les chercheurs doivent s’appuyer autant sur la spéculation et l’argument philosophique que sur les preuves et la preuve mathématique.
Il y a deux raisons pour lesquelles je ne suis pas concerné par ChatGPT et ses sous-produits.
Premièrement, ce n’est même pas proche du genre de superintelligence artificielle qui pourrait éventuellement constituer une menace pour l’humanité. Les modèles qui le sous-tendent sont des apprenants lents qui nécessitent d’immenses volumes de données pour construire quoi que ce soit qui ressemble aux concepts polyvalents que les humains peuvent concocter à partir de seulement quelques exemples. En ce sens, ce n’est pas « intelligent ».
Deuxièmement, bon nombre des scénarios AGI les plus catastrophiques dépendent de prémisses que je trouve invraisemblables. Par exemple, il semble y avoir une hypothèse dominante (mais tacite) selon laquelle une intelligence suffisante équivaut à une puissance illimitée dans le monde réel. Si cela était vrai, davantage de scientifiques seraient milliardaires.
La cognition, telle que nous la comprenons chez les humains, se déroule dans le cadre d’un environnement physique (qui inclut notre corps) – et cet environnement impose des limites. Le concept de l’IA en tant qu ‘«esprit logiciel» non contraint par le matériel a plus de points communs avec le dualisme du XVIIe siècle (l’idée que l’esprit et le corps sont séparables) qu’avec les théories contemporaines de l’esprit existant dans le monde physique.
Pourquoi cette inquiétude soudaine ?
Pourtant, le catastrophisme est un vieux chapeau, et les événements de ces dernières années n’ont probablement pas aidé. Mais il y a peut-être plus dans cette histoire qu’il n’y paraît.
Parmi les personnalités éminentes appelant à une réglementation de l’IA, beaucoup travaillent pour ou ont des liens avec des entreprises d’IA en place. Cette technologie est utile, et il y a de l’argent et du pouvoir en jeu. L’alarmisme présente donc une opportunité.
Presque tout ce qui est impliqué dans la construction de ChatGPT a été publié dans des recherches auxquelles tout le monde peut accéder. Les concurrents d’OpenAI peuvent (et ont) reproduit le processus, et il ne faudra pas longtemps avant que des alternatives gratuites et open-source inondent le marché.
Ce point a été clairement indiqué dans une note de service prétendument divulguée par Google intitulée « Nous n’avons pas de fossé, et OpenAI non plus ». Un fossé est un jargon pour un moyen de sécuriser votre entreprise contre les concurrents.
Yann LeCun, qui dirige la recherche sur l’IA chez Meta, affirme que ces modèles devraient être ouverts puisqu’ils deviendront des infrastructures publiques. Lui et beaucoup d’autres ne sont pas convaincus par le récit du destin de l’AGI.
Notamment, Meta n’a pas été invité lorsque le président américain Joe Biden a récemment rencontré les dirigeants de Google DeepMind et OpenAI. C’est malgré le fait que Meta est presque certainement un chef de file dans la recherche sur l’IA ; il a produit PyTorch, le framework d’apprentissage automatique OpenAI utilisé pour créer GPT-3.
Lors des réunions de la Maison Blanche, le directeur général d’OpenAI, Sam Altman, a suggéré que le gouvernement américain délivre des licences à ceux qui sont dignes de confiance pour former de manière responsable des modèles d’IA. Licences, en tant que directeur général de Stability AI, Emad Mostaque le met« sont une sorte de fossé. »
Des entreprises telles que Google, OpenAI et Microsoft ont tout à perdre en permettant à de petits concurrents indépendants de prospérer. L’introduction de licences et de réglementations contribuerait à consolider leur position de leader du marché et à entraver la concurrence avant qu’elle ne puisse émerger.
Bien que la réglementation soit appropriée dans certaines circonstances, les réglementations adoptées à la hâte favoriseront les opérateurs historiques et étoufferont la petite concurrence libre et open source.