Qu’est-ce que la superintelligence de l’IA ? Pourrait-il détruire l’humanité ? Et est-ce vraiment presque là ?

Qu’est-ce que la superintelligence de l’IA ? Pourrait-il détruire l’humanité ? Et est-ce vraiment presque là ?

En 2014, le philosophe britannique Nick Bostrom a publié un livre sur l’avenir de l’intelligence artificielle (IA) intitulé Superintelligence : Paths, Dangers, Strategies. Cela s’est avéré très influent dans la promotion de l’idée selon laquelle les systèmes d’IA avancés – des « superintelligences » plus performantes que les humains – pourraient un jour conquérir le monde et détruire l’humanité.

Une décennie plus tard, Sam Altman, le patron d'OpenAI, affirme que la superintelligence n'est peut-être qu'à « quelques milliers de jours ». Il y a un an, Ilya Sutskever, cofondateur d'OpenAI d'Altman, a créé une équipe au sein de l'entreprise pour se concentrer sur la « superintelligence sûre », mais lui et son équipe ont maintenant levé un milliard de dollars pour créer leur propre startup afin de poursuivre cet objectif.

De quoi parlent-ils exactement ? D’une manière générale, la superintelligence est tout ce qui est plus intelligent que les humains. Mais comprendre ce que cela pourrait signifier dans la pratique peut s’avérer un peu délicat.

Différents types d'IA

À mon avis, la manière la plus utile de réfléchir aux différents niveaux et types d’intelligence dans l’IA a été développée par l’informaticien américaine Meredith Ringel Morris et ses collègues de Google.

Leur cadre répertorie six niveaux de performance de l'IA : pas d'IA, émergente, compétente, experte, virtuose et surhumaine. Il établit également une distinction importante entre les systèmes étroits, qui peuvent exécuter un petit nombre de tâches, et les systèmes plus généraux.

Un système étroit et sans IA est quelque chose comme une calculatrice. Il réalise diverses tâches mathématiques selon un ensemble de règles explicitement programmées.

Il existe déjà de nombreux systèmes d’IA étroits très performants. Morris donne le programme d'échecs Deep Blue qui a battu le célèbre champion du monde Garry Kasparov en 1997 comme exemple d'un système d'IA étroit de niveau virtuose.

Certains systèmes étroits possèdent même des capacités surhumaines. Un exemple est Alphafold, qui utilise l’apprentissage automatique pour prédire la structure des molécules protéiques et dont les créateurs ont remporté le prix Nobel de chimie cette année.

Qu’en est-il des systèmes généraux ? Il s’agit d’un logiciel capable d’effectuer un éventail de tâches beaucoup plus large, notamment l’acquisition de nouvelles compétences.

Un système général sans IA pourrait ressembler à Mechanical Turk d'Amazon : il peut faire un large éventail de choses, mais il les fait en interrogeant de vraies personnes.

Dans l’ensemble, les systèmes d’IA généraux sont bien moins avancés que leurs cousins ​​étroits. Selon Morris, les modèles de langage de pointe derrière les chatbots tels que ChatGPT sont des IA générales, mais ils sont jusqu'à présent au niveau « émergent » (ce qui signifie qu'ils sont « égaux ou légèrement meilleurs qu'un humain non qualifié »). , et pourtant pas encore « compétent » (jusqu'à 50 % des adultes qualifiés).

Donc, d’après ce calcul, nous sommes encore assez loin de la superintelligence générale.

Dans quelle mesure l’IA est-elle intelligente à l’heure actuelle ?

Comme le souligne Morris, déterminer précisément où se situe un système donné dépendrait de la disponibilité de tests ou de références fiables.

En fonction de nos références, un système de génération d'images tel que DALL-E pourrait être au niveau virtuose (car il peut produire des images que 99 % des humains ne pourraient pas dessiner ou peindre), ou il pourrait être en train d'émerger (car il produit des erreurs qu'aucun humain ne pourrait réaliser). , comme des mains mutantes et des objets impossibles).

Il y a même un débat important sur les capacités des systèmes actuels. Un article notable de 2023 affirmait que GPT-4 montrait « des étincelles d’intelligence artificielle générale ».

OpenAI affirme que son dernier modèle de langage, o1, peut « effectuer un raisonnement complexe » et « rivaliser avec les performances des experts humains » sur de nombreux tests.

Cependant, un article récent de chercheurs d'Apple a révélé que o1 et de nombreux autres modèles de langage ont beaucoup de mal à résoudre de véritables problèmes de raisonnement mathématique. Leurs expériences montrent que les résultats de ces modèles semblent ressembler à une correspondance de modèles sophistiquée plutôt qu’à un véritable raisonnement avancé. Cela indique que la superintelligence n’est pas aussi imminente que beaucoup le suggèrent.

L’IA va-t-elle continuer à devenir plus intelligente ?

Certains pensent que le rythme rapide des progrès de l’IA au cours des dernières années va se poursuivre, voire s’accélérer. Les entreprises technologiques investissent des centaines de milliards de dollars dans le matériel et les capacités d’IA, cela ne semble donc pas impossible.

Si cela se produit, nous pourrions effectivement voir une superintelligence générale dans les « quelques milliers de jours » proposés par Sam Altman (soit une décennie environ en termes moins scientifiques). Sutskever et son équipe ont mentionné un délai similaire dans leur article sur le superalignement.

De nombreux succès récents en matière d'IA proviennent de l'application d'une technique appelée « apprentissage profond », qui, en termes simplistes, trouve des modèles associatifs dans de gigantesques collections de données. En effet, le prix Nobel de physique de cette année a été décerné à John Hopfield ainsi qu'au « Parrain de l'IA » Geoffrey Hinton, pour leur invention des réseaux Hopfield et de la machine Boltzmann, qui sont à la base de nombreux modèles puissants d'apprentissage profond utilisés aujourd'hui.

Les systèmes généraux tels que ChatGPT s'appuient sur des données générées par des humains, en grande partie sous la forme de textes provenant de livres et de sites Web. Les améliorations de leurs capacités proviennent en grande partie de l’augmentation de l’échelle des systèmes et de la quantité de données sur lesquelles ils sont formés.

Cependant, il se peut qu’il n’y ait pas suffisamment de données générées par l’homme pour aller plus loin dans ce processus (même si les efforts visant à utiliser les données plus efficacement, à générer des données synthétiques et à améliorer le transfert de compétences entre différents domaines pourraient apporter des améliorations). Même s’il y avait suffisamment de données, certains chercheurs affirment que les modèles linguistiques tels que ChatGPT sont fondamentalement incapables d’atteindre ce que Morris appellerait une compétence générale.

Un article récent suggère qu’une caractéristique essentielle de la superintelligence serait l’ouverture, du moins d’un point de vue humain. Il faudrait qu’il soit capable de générer en permanence des résultats qu’un observateur humain considérerait comme nouveaux et dont il pourrait tirer des leçons.

Les modèles de fondation existants ne sont pas formés de manière ouverte, et les systèmes ouverts existants sont assez étroits. Cet article souligne également que la nouveauté ou la capacité d’apprentissage ne suffisent pas. Un nouveau type de modèle de fondation ouvert est nécessaire pour parvenir à la superintelligence.

Quels sont les risques ?

Alors, qu’est-ce que tout cela signifie pour les risques de l’IA ? À court terme, au moins, nous n’avons pas à craindre que l’IA superintelligente envahisse le monde.

Mais cela ne veut pas dire que l’IA ne présente pas de risques. Encore une fois, Morris et ses collègues ont réfléchi à la question : à mesure que les systèmes d’IA acquièrent de grandes capacités, ils pourraient également acquérir une plus grande autonomie. Différents niveaux de capacité et d’autonomie présentent différents risques.

Par exemple, lorsque les systèmes d'IA ont peu d'autonomie et que les gens les utilisent comme une sorte de consultant (lorsque nous demandons à ChatGPT de résumer des documents, par exemple, ou laissons l'algorithme de YouTube façonner nos habitudes de visionnage), nous pouvons être confrontés à un risque de confiance excessive ou de sur-évaluation. -compter sur eux.

Entre-temps, Morris souligne d’autres risques à surveiller à mesure que les systèmes d’IA deviennent plus performants, allant des personnes nouant des relations parasociales avec les systèmes d’IA aux suppressions d’emplois massives et à l’ennui à l’échelle de la société.

Quelle est la prochaine étape ?

Supposons que nous disposions un jour d’agents d’IA superintelligents et entièrement autonomes. Serons-nous alors confrontés au risque qu’ils concentrent le pouvoir ou agissent contre les intérêts humains ?

Pas nécessairement. L’autonomie et le contrôle peuvent aller de pair. Un système peut être hautement automatisé tout en offrant un niveau élevé de contrôle humain.

Comme beaucoup de membres de la communauté de recherche en IA, je crois superintelligence sûre est réalisable. Cependant, sa construction sera une tâche complexe et multidisciplinaire, et les chercheurs devront emprunter des chemins invaincus pour y parvenir.