Superintelligence ou superautomatisation ? C'est le dilemme de l'IA
De Palo Alto à Pékin, les ingénieurs se battent pour créer une superintelligence – une intelligence artificielle capable de penser et de raisonner, avec un intellect bien supérieur au nôtre. Mais les modèles de pointe existants pourraient être configurés pour offrir une « super-automatisation » plutôt qu’une super-intelligence.1
Dimitris Tsementzisqui dirige l'équipe d'intelligence artificielle appliquée au sein de la division d'ingénierie de Goldman Sachsresponsable du développement et de l'adoption d'applications commerciales d'IA dans l'entreprise, s'est interrogé sur cette double possibilité
Tsementzis est membre du Firmwide Model Risk Control Committee et membre du Goldman Sachs Global Institute. Nous rapportons ici ses réflexions.
La nouvelle génération d'IA
Les IA existantes sont généralement basées sur un modèle de langage étendu (LLM) basé sur un transformateur, capable de traiter et de comprendre le langage naturel, de générer du contenu et d'effectuer des tâches. Alors que les entreprises investissent des milliards de dollars dans les semi-conducteurs pour débloquer des capacités d’IA toujours croissantes, il est important de comprendre – estime Tsementzis – ce qu’est la superintelligence, ce qu’il faudra pour y parvenir et si la dernière génération d’IA constituera une base adéquate pour y parvenir. ces ambitions
De l’IA à l’AGI
Qu’est-ce que la superintelligence ?
Par IA, nous entendons un système qui réussit le test de Turing, c'est-à-dire un système capable de convaincre un interlocuteur humain qu'il est humain. Une intelligence générale artificielle (IAG) est une IA qui fait preuve d’excellence dans tous les domaines de la connaissance humaine.2 Une superintelligence – estime Tsementzis – serait la prochaine étape : une IA qui surpasse les capacités humaines dans toutes ou la plupart des tâches cognitives humaines et serait donc, par définition, une version améliorée d’une IA.
Le développement d’une superintelligence nécessiterait donc au moins deux pas (ou bonds) en avant par rapport à l’état actuel de la technique. Là superintelligence sûre fait référence à une IA dont les objectifs et les priorités sont alignés sur les valeurs humaines, tout en démontrant des capacités surhumaines dans la plupart – voire la totalité – des tâches cognitives.
Que pourrait résoudre une superintelligence ?
Parmi les tâches qu’une superintelligence digne de ce nom serait capable d’accomplir, selon Tsementzis, on trouve :
- résoudre des conjectures mathématiques qui ont échappé à l'homme (par exemple, les problèmes du Prix du Millénaire)
- prédire la météo avec précision (par exemple cinq ans à l'avance cinq jours)
- construire des molécules pour guérir toute maladie virale ou génétique.
Une superintelligence se « soucierait-elle » de choses comme la superproductivité des développeurs ?
Une intelligence humaine améliorée (par exemple, une intelligence artificielle) se « soucierait » probablement d’améliorer, d’améliorer et de permettre les activités humaines (par exemple, le codage), puisqu’il s’agit, après tout, d’une intelligence. humain. Mais une superintelligence ferait-elle cela ? demande Tsementzis.
Autrement dit: Une intelligence capable d’effectuer des tâches de raisonnement mille fois plus vite que les humains ne se soucierait-elle réellement que de les exécuter un million de fois plus vite ?3
Les humains sont limités par leur propre imagination concernant les tâches qu’une superintelligence pourrait accomplir, car nous sommes incapables de sortir de notre ombre cognitive. Par conséquent, dans les tâches pratiques, nous, les humains, ne pouvons imaginer que des versions mises à l’échelle ou accélérées de nous-mêmes (par exemple, résoudre plus rapidement ou mieux) – ce que l’on peut appeler « super-automatisation ». Cette incertitude quant aux tâches réellement possibles (ou acceptables pour) une superintelligence soulève la question de la sécurité et de l’alignement : Comment les humains peuvent-ils garantir qu’une superintelligence continue de « se soucier » uniquement des besoins humains (comme la productivité du codage) ?
Que pourrait-il manquer pour atteindre une superintelligence (sûre) ?
Selon Tsementzis, il y a au moins trois défis de recherche fondamentaux qui doivent être résolus pour construire une superintelligence sûre :
- Auto-apprentissage (recyclage autonome) : toute forme d’intelligence qui gère des tâches stationnaires (par exemple, repérer des chats sur des photos plutôt que prédire les marchés) est probablement mieux qualifiée d’« automatisation », ce qui signifie que la génération actuelle d’IA est sur la trajectoire de la « super-automatisation » plutôt que de la superintelligence. En revanche, l’intelligence entre en jeu lors de changements de régime (par exemple, des changements fondamentaux sur le marché), car ce sont des situations dans lesquelles les humains doivent revoir et réviser leurs hypothèses et reconfigurer leur appareil de raisonnement. En d’autres termes, ce sont des situations dans lesquelles les humains doivent « s’adapter » ou (en termes d’IA) se « recycler ». Par conséquent, la superintelligence nécessiterait probablement la capacité de nous recycler bien mieux que nous, les humains, ne sommes capables de nous recycler.
- Pensée structurelle (penser par analogies plutôt que prédire par corrélations) : la superintelligence nécessitera probablement des architectures d’IA qui réalisent ou codent la pensée par analogie plutôt que de simplement capturer des corrélations statistiques (ce que font toujours les IA de pointe basées sur des transformateurs). Il s’agirait par exemple d’un paradigme dans lequel une IA n’apprend pas simplement les probabilités pour prédire les jetons à venir, mais affine également, ce faisant, sa capacité à créer des métaphores et à établir des analogies inattendues.4
- Éthique asymétrique (contre l’éthique de la rationalité partagée) : la réalisation de la superintelligence nécessiterait la solution de ce que l'on peut définir comme le « problème Solaris », cJe veux dire trouver des moyens pratiques de communiquer avec des formes d’intelligence radicalement différentes ou supérieures à l’intelligence humaine..
Tsementzis propose cette vision : comment l'humanité peut-elle créer un système dans lequel les fourmis peuvent nous dire ce qu'elles pensent être la bonne façon de les traiter (et vice versa) ?5
Aussi fantaisiste que cela puisse paraître, le projet d’« enseigner » à une superintelligence digne de ce nom ce qui est bien et ce qui ne l’est pas pourrait être similaire – où évidemment, dans ce cas, nous les humains, pour Tsementzis, nous serions les fourmis.
Une superintelligence sera-t-elle un jour réellement utile ou commerciale ?
Même si une superintelligence sûre était créée, il n’est pas clair si elle s’avérerait utile ou intelligible (ou commerciale).
Les explications des résultats de l’IA sont-elles nécessaires dans toutes les tâches ? La génération actuelle de LLM est probablement déjà superintelligente, par exemple dans des tâches telles que la production pentamètres iambiques en utilisant uniquement des mots commençant par la lettre F. Et est-il vraiment nécessaire de comprendre comment ils parviennent à faire cela avant que les gens n'apprécient le poème ? Comprendre ou vérifier ne serait pas essentiel partout, mais ce serait probablement le cas dans les applications commerciales, sensibles au risque ou à la sécurité.
Conclusion
Pour Tsementzis, Il n’est pas encore clair si les LLM basés sur des transformateurs peuvent constituer l’architecture de base permettant de réaliser un système superintelligent. De manière plus réaliste, avec les architectures actuelles, le secteur technologique est sur la voie de la super-automatisation et de nouvelles connaissances seront nécessaires pour nous mettre sur la voie de la superintelligence. Cependant, parvenir à une superintelligence en toute sécurité constitue un problème de recherche et technique important qui sera probablement étudié par des scientifiques et des entrepreneurs de premier plan, même si les impacts commerciaux ou réels sont probablement loin.
Remarques
1La question de savoir si ces ambitions peuvent être réalisées est généralement un débat centré sur les lois d'échelle des LLM (ou d'autres modèles), c'est-à-dire dans quelle mesure nous pouvons nous attendre à ce que leurs performances s'améliorent à mesure qu'ils grandissent en termes de nombre de paramètres, de données, et d'autres facteurs. Une référence technique utile pour ces enquêtes est ici : Maor Ivgi, Yair Carmon et Jonathan Berant, Lois de mise à l'échelle au microscope : prédire les performances des transformateurs à partir d'expériences à petite échelle(2022).
2Une classification détaillée de l'AGI et une définition de la superintelligence sont fournies ici : Meredith Ringel Morris, Jascha Sohl-Dickstein, Noah Fiedel, Tris Warkentin, Allan Dafoe, Aleksandra Faust, Clement Farabet et Shane Legg, Poste : Niveaux d'AGI pour opérationnaliser les progrès sur la voie de l'AGI(2024).
3Nick Bostrom, Combien de superintelligence manque-t-il (Journal international des études futures, 1998).
4Les recherches de Melanie Mitchell, par exemple, ont abordé ce problème : John Pavlus, L’informaticien forme l’IA à penser avec des analogies(Quantiques, 2021).
5Le lien entre les fourmis et la superintelligence a été exploré à divers endroits. Par exemple, des études approfondies ont été menées sur les colonies de fourmis coupeuses de feuilles et sur la manière dont elles forment collectivement une intelligence apparemment supérieure à celle des individus qui les composent. Une référence classique est : Bert Hölldobler et Edward O. Wilson, Les fourmis coupe-feuilles : la civilisation par instinct(W.W. Norton & Co. Ltd., 2010).