Les machines peuvent-elles être conscientes d’elles-mêmes ? Une nouvelle recherche explique comment cela pourrait se produire
Pour construire une machine, il faut savoir quelles sont ses pièces et comment elles s’emboîtent. Pour comprendre la machine, il faut savoir ce que fait chaque pièce et comment elle contribue à son fonctionnement. En d’autres termes, on devrait être capable d’expliquer la « mécanique » de son fonctionnement.
Selon une approche philosophique appelée mécanisme, les humains sont sans doute un type de machine et notre capacité à penser, parler et comprendre le monde est le résultat d’un processus mécanique que nous ne comprenons pas.
Pour mieux nous comprendre, nous pouvons essayer de construire des machines qui imitent nos capacités. Ce faisant, nous aurions une compréhension mécaniste de ces machines. Et plus la machine présente notre comportement, plus nous pourrions nous rapprocher d’une explication mécaniste de notre propre esprit.
C’est ce qui rend l’IA intéressante d’un point de vue philosophique. Des modèles avancés tels que GPT4 et Midjourney peuvent désormais imiter la conversation humaine, réussir des examens professionnels et générer de belles images avec seulement quelques mots.
Pourtant, malgré tous les progrès, des questions restent sans réponse. Comment pouvons-nous rendre quelque chose conscient de soi, ou conscient que les autres sont conscients ? Qu’est-ce que l’identité ? Ce qui signifie?
Bien qu’il existe de nombreuses descriptions philosophiques concurrentes de ces choses, elles ont toutes résisté à l’explication mécaniste.
Dans une série d’articles acceptés pour la 16e conférence annuelle sur l’intelligence artificielle générale à Stockholm, je propose une explication mécaniste de ces phénomènes. Ils expliquent comment nous pouvons construire une machine consciente d’elle-même, des autres, d’elle-même telle qu’elle est perçue par les autres, etc.
Intelligence et intention
Une grande partie de ce que nous appelons l’intelligence se résume à faire des prédictions sur le monde avec des informations incomplètes. Moins une machine a besoin d’informations pour faire des prédictions précises, plus elle est « intelligente ».
Pour une tâche donnée, il y a une limite à la quantité d’intelligence réellement utile. Par exemple, la plupart des adultes sont assez intelligents pour apprendre à conduire une voiture, mais plus d’intelligence ne fera probablement pas d’eux de meilleurs conducteurs.
Mes articles décrivent la limite supérieure d’intelligence pour une tâche donnée, et ce qui est nécessaire pour construire une machine qui l’atteint.
J’ai nommé l’idée le rasoir de Bennett, qui en termes non techniques est que « les explications ne doivent pas être plus précises que nécessaire ». Ceci est distinct de l’interprétation populaire du rasoir d’Ockham (et de ses descriptions mathématiques), qui préfère les explications plus simples.
La différence est subtile, mais significative. Dans une expérience comparant la quantité de données dont les systèmes d’IA ont besoin pour apprendre des mathématiques simples, l’IA qui préférait des explications moins spécifiques a surpassé celle qui préférait des explications plus simples jusqu’à 500 %.
L’exploration des implications de cette découverte m’a conduit à une explication mécaniste du sens – quelque chose appelé « la pragmatique gricienne ». Il s’agit d’un concept de philosophie du langage qui examine comment le sens est lié à l’intention.
Pour survivre, un animal doit prédire comment son environnement, y compris les autres animaux, va agir et réagir. Vous n’hésiteriez pas à laisser une voiture sans surveillance près d’un chien, mais on ne peut pas en dire autant de votre déjeuner de rumsteck.
Être intelligent dans une communauté signifie être capable de déduire l’intention des autres, qui découle de leurs sentiments et de leurs préférences. Si une machine devait atteindre la limite supérieure d’intelligence pour une tâche qui dépend des interactions avec un humain, elle devrait également déduire correctement l’intention.
Et si une machine peut attribuer une intention aux événements et aux expériences qui lui arrivent, cela soulève la question de l’identité et de ce que signifie être conscient de soi et des autres.
Causalité et identité
Je vois John porter un imperméable quand il pleut. Si je force John à porter un imperméable par une journée ensoleillée, est-ce que cela apportera de la pluie ?
Bien sûr que non! Pour un humain, c’est évident. Mais les subtilités de cause à effet sont plus difficiles à enseigner à une machine (les lecteurs intéressés peuvent consulter « The Book of Why » de Judea Pearl et Dana Mackenzie).
Pour raisonner sur ces choses, une machine a besoin d’apprendre que « j’ai fait en sorte que cela se produise » est différent de « je l’ai vu se produire ». Typiquement, nous y programmons cette compréhension.
Cependant, mon travail explique comment nous pouvons construire une machine qui fonctionne à la limite supérieure de l’intelligence pour une tâche. Une telle machine doit, par définition, identifier correctement la cause et l’effet – et donc également déduire des relations causales. Mes articles explorent exactement comment.
Les implications de cela sont profondes. Si une machine apprend « je l’ai causé », alors elle doit construire des concepts de « je » (une identité pour elle-même) et « cela ».
Les capacités de déduire l’intention, d’apprendre les causes et les effets et de construire des identités abstraites sont toutes liées. Une machine qui atteint la limite supérieure d’intelligence pour une tâche doit présenter toutes ces capacités.
Cette machine ne construit pas seulement une identité pour elle-même, mais pour chaque aspect de chaque objet qui aide ou entrave sa capacité à accomplir la tâche. Il peut alors utiliser ses propres préférences comme référence pour prédire ce que les autres peuvent faire. Ceci est similaire à la façon dont les humains ont tendance à attribuer une intention aux animaux non humains.
Alors, qu’est-ce que cela signifie pour l’IA ?
Bien sûr, l’esprit humain est bien plus que le simple programme utilisé pour mener des expériences dans mes recherches. Mon travail fournit une description mathématique d’une voie causale possible pour créer une machine qui est sans doute consciente d’elle-même. Cependant, les spécificités de l’ingénierie d’une telle chose sont loin d’être résolues.
Par exemple, une intention de type humain nécessiterait des expériences et des sentiments de type humain, ce qui est difficile à concevoir. De plus, nous ne pouvons pas facilement tester la pleine richesse de la conscience humaine. La conscience est un concept large et ambigu qui englobe – mais doit être distingué de – les affirmations plus étroites ci-dessus.
J’ai fourni une explication mécaniste des aspects de la conscience, mais cela ne suffit pas à saisir toute la richesse de la conscience telle que les humains en font l’expérience. Ce n’est que le début, et les recherches futures devront approfondir ces arguments.