La partie la plus difficile de la création d’une IA consciente pourrait être de nous convaincre qu’elle est réelle
Dès 1980, le philosophe américain John Searle faisait la distinction entre une IA forte et une IA faible. Les IA faibles sont simplement des machines ou des programmes utiles qui nous aident à résoudre des problèmes, alors que les IA fortes possèdent une véritable intelligence. Une IA forte serait consciente.
Searle était sceptique quant à la possibilité même d’une IA forte, mais tout le monde ne partage pas son pessimisme. Les plus optimistes sont ceux qui soutiennent le fonctionnalisme, une théorie populaire de l’esprit selon laquelle les états mentaux conscients sont déterminés uniquement par leur fonction. Pour un fonctionnaliste, la tâche de produire une IA forte n’est qu’un défi technique. Si nous pouvons créer un système qui fonctionne comme nous, nous pouvons être sûrs qu’il est conscient comme nous.
Récemment, nous avons atteint le point de bascule. Les IA génératives telles que Chat-GPT sont désormais si avancées que leurs réponses sont souvent impossibles à distinguer de celles d'un véritable humain (voir cet échange entre Chat-GPT et Richard Dawkins, par exemple).
La question de savoir si une machine peut nous faire croire qu'elle est humaine fait l'objet d'un test bien connu conçu par l'informaticien anglais Alan Turing en 1950. Turing affirmait que si une machine pouvait réussir le test, nous devrions conclure qu'elle était véritablement intelligente.
En 1950, ce n'était que pure spéculation, mais selon une étude préliminaire publiée plus tôt cette année – une étude qui n'a pas encore été évaluée par des pairs – le test de Turing a maintenant été réussi. Chat-GPT a convaincu 73 % des participants qu'il s'agissait d'un humain.
Ce qui est intéressant, c'est que personne n'y croit. Les experts non seulement nient que Chat-GPT soit conscient, mais ne prennent apparemment même pas l’idée au sérieux. Je dois admettre que je suis avec eux. Cela ne semble tout simplement pas plausible.
La question clé est la suivante : que devrait réellement faire une machine pour nous convaincre ?
Les experts ont eu tendance à se concentrer sur l’aspect technique de cette question. Autrement dit, discerner de quelles caractéristiques techniques une machine ou un programme aurait besoin pour satisfaire nos meilleures théories de la conscience. Un article de 2023, par exemple, tel que rapporté ici dans The Conversation, a compilé une liste de 14 critères techniques ou « indicateurs de conscience », tels que l'apprentissage à partir des commentaires (Chat-GPT n'a pas fait la note).
Mais créer une IA forte est autant un défi psychologique que technique. C'est une chose de produire une machine qui satisfasse aux différents critères techniques que nous avons énoncés dans nos théories, mais c'en est une autre de supposer que, lorsque nous serons finalement confrontés à une telle chose, nous croirons qu'elle est consciente.
Le succès de Chat-GPT a déjà démontré ce problème. Pour beaucoup, le test de Turing était la référence en matière d’intelligence artificielle. Mais s’il a été adopté, comme le suggère l’étude pré-imprimée, les objectifs ont changé. Ils pourraient bien continuer à évoluer à mesure que la technologie s’améliore.
Difficultés de Myna
C’est là que nous entrons dans le domaine obscur d’un dilemme philosophique séculaire : le problème des autres esprits. En fin de compte, on ne peut jamais savoir avec certitude si quelque chose d’autre que soi-même est conscient. Dans le cas des êtres humains, le problème n’est guère plus qu’un scepticisme inutile. Aucun d’entre nous ne peut sérieusement envisager la possibilité que les autres humains soient des automates irréfléchis, mais dans le cas des machines, il semble que ce soit l’inverse. Il est difficile d’accepter qu’ils puissent être autre chose.
Un problème particulier avec les IA comme Chat-GPT est qu’elles ressemblent à de simples machines à mimer. Ils sont comme l'oiseau myna qui apprend à vocaliser des mots sans aucune idée de ce qu'il fait ni de la signification de ces mots.
Bien sûr, cela ne signifie pas que nous ne fabriquerons jamais une machine consciente, mais cela suggère que nous pourrions avoir du mal à l'accepter si nous le faisions. Et c’est peut-être là l’ironie ultime : réussir notre quête pour créer une machine consciente, tout en refusant de croire que nous y sommes parvenus. Qui sait, c'est peut-être déjà arrivé.
Alors, que devrait faire une machine pour nous convaincre ? Une suggestion provisoire est qu’il pourrait devoir faire preuve du type d’autonomie que nous observons chez de nombreux organismes vivants.
Les IA actuelles comme Chat-GPT sont purement réactives. Gardez vos doigts éloignés du clavier et ils seront aussi silencieux que la tombe. Les animaux ne sont pas comme ça, du moins pas ceux que nous considérons communément comme conscients, comme les chimpanzés, les dauphins, les chats et les chiens. Ils ont leurs propres impulsions et inclinations (ou du moins semblent en avoir), ainsi que le désir de les poursuivre. Ils lancent leurs propres actions selon leurs propres conditions, pour leurs propres raisons.
Peut-être que si nous pouvions créer une machine affichant ce type d’autonomie – le genre d’autonomie qui la porterait au-delà d’une simple machine de mimétisme – accepterions-nous vraiment qu’elle soit consciente ?
Il est difficile d'en être sûr. Peut-être devrions-nous demander à Chat-GPT.
