ChatGPT ne peut pas penser. La conscience est quelque chose de complètement différent de l’IA d’aujourd’hui
Il y a eu un choc dans le monde entier face au rythme rapide des progrès de ChatGPT et d’autres intelligences artificielles créées avec ce que l’on appelle les grands modèles de langage (LLM). Ces systèmes peuvent produire un texte qui semble faire preuve de réflexion, de compréhension et même de créativité.
Mais ces systèmes peuvent-ils vraiment penser et comprendre ? Ce n’est pas une question à laquelle on peut répondre par le progrès technologique, mais une analyse philosophique et un argumentaire minutieux nous disent que la réponse est non. Et sans travailler sur ces questions philosophiques, nous ne comprendrons jamais pleinement les dangers et les avantages de la révolution de l’IA.
En 1950, le père de l’informatique moderne, Alan Turing, a publié un article qui exposait un moyen de déterminer si un ordinateur pense. Cela s’appelle maintenant « le test de Turing ». Turing a imaginé un être humain engagé dans une conversation avec deux interlocuteurs cachés : l’un un autre être humain, l’autre un ordinateur. Le jeu consiste à déterminer lequel est lequel.
Si un ordinateur peut tromper 70% des juges dans une conversation de cinq minutes en leur faisant croire qu’il s’agit d’une personne, l’ordinateur réussit le test. La réussite du test de Turing – quelque chose qui semble maintenant imminent – montrerait-elle qu’une IA a atteint la pensée et la compréhension ?
Défi d’échecs
Turing a rejeté cette question comme désespérément vague et l’a remplacée par une définition pragmatique de la « pensée », selon laquelle penser signifie simplement réussir le test.
Turing avait tort, cependant, quand il a dit que la seule notion claire de « compréhension » est celle purement comportementale de réussir son test. Bien que cette façon de penser domine désormais les sciences cognitives, il existe également une notion claire et quotidienne de « compréhension » liée à la conscience. Comprendre dans ce sens, c’est saisir consciemment une vérité sur la réalité.
En 1997, l’IA Deep Blue a battu le grand maître d’échecs Garry Kasparov. Sur une conception purement comportementale de la compréhension, Deep Blue avait une connaissance de la stratégie d’échecs qui surpasse tout être humain. Mais ce n’était pas conscient : il n’avait pas de sentiments ou d’expériences.
Les humains comprennent consciemment les règles des échecs et la logique d’une stratégie. Deep Blue, en revanche, était un mécanisme insensible qui avait été formé pour bien performer au jeu. De même, ChatGPT est un mécanisme insensible qui a été formé sur d’énormes quantités de données créées par l’homme pour générer un contenu qui semble avoir été écrit par une personne.
Il ne comprend pas consciemment le sens des mots qu’il crache. Si « pensée » signifie l’acte de réflexion consciente, alors ChatGPT ne pense à rien.
Il est temps de payer
Comment puis-je être sûr que ChatGPT n’est pas conscient ? Dans les années 1990, le neuroscientifique Christof Koch a parié avec le philosophe David Chalmers sur un cas de bon vin que les scientifiques auraient entièrement identifié les « corrélats neuronaux de la conscience » en 25 ans.
Par cela, il voulait dire qu’ils auraient identifié les formes d’activité cérébrale nécessaires et suffisantes pour une expérience consciente. Il est temps que Koch paie, car il n’y a aucun consensus sur le fait que cela s’est produit.
C’est parce que la conscience ne peut pas être observée en regardant à l’intérieur de votre tête. Dans leurs tentatives pour trouver un lien entre l’activité cérébrale et l’expérience, les neuroscientifiques doivent s’appuyer sur le témoignage de leurs sujets ou sur des marqueurs externes de la conscience. Mais il existe plusieurs façons d’interpréter les données.
Certains scientifiques pensent qu’il existe un lien étroit entre la conscience et la cognition réflexive, c’est-à-dire la capacité du cerveau à accéder à l’information et à l’utiliser pour prendre des décisions. Cela les amène à penser que le cortex préfrontal du cerveau – où se déroulent les processus de haut niveau d’acquisition des connaissances – est essentiellement impliqué dans toute expérience consciente. D’autres nient cela, arguant plutôt que cela se produit dans n’importe quelle région cérébrale locale où le traitement sensoriel pertinent a lieu.
Les scientifiques ont une bonne compréhension de la chimie de base du cerveau. Nous avons également fait des progrès dans la compréhension des fonctions de haut niveau de diverses parties du cerveau. Mais nous n’avons presque aucune idée de ce qui se passe entre les deux : comment le fonctionnement de haut niveau du cerveau est réalisé au niveau cellulaire.
Les gens sont très enthousiasmés par le potentiel des scans pour révéler le fonctionnement du cerveau. Mais l’IRMf (imagerie par résonance magnétique fonctionnelle) a une très faible résolution : chaque pixel d’un scanner cérébral correspond à 5,5 millions de neurones, ce qui signifie qu’il y a une limite à la quantité de détails que ces scanners peuvent montrer.
Je crois que les progrès sur la conscience viendront quand nous comprendrons mieux comment fonctionne le cerveau.
Pause dans le développement
Comme je l’affirme dans mon livre à paraître « Pourquoi ? Le but de l’univers », la conscience a dû évoluer parce qu’elle a fait une différence de comportement. Les systèmes avec conscience doivent se comporter différemment, et donc mieux survivre, que les systèmes sans conscience.
Si tout comportement était déterminé par la chimie et la physique sous-jacentes, la sélection naturelle n’aurait aucune motivation pour rendre les organismes conscients ; nous aurions évolué en tant que mécanismes de survie insensibles.
Mon pari est donc qu’à mesure que nous en apprendrons davantage sur le fonctionnement détaillé du cerveau, nous identifierons précisément quelles zones du cerveau incarnent la conscience. En effet, ces régions présenteront un comportement qui ne peut être expliqué par la chimie et la physique actuellement connues. Déjà, certains neuroscientifiques cherchent de nouvelles explications potentielles de la conscience pour compléter les équations de base de la physique.
Alors que le traitement des LLM est maintenant trop complexe pour que nous puissions le comprendre pleinement, nous savons qu’il pourrait en principe être prédit à partir de la physique connue. Sur cette base, nous pouvons affirmer avec confiance que ChatGPT n’est pas conscient.
L’IA présente de nombreux dangers, et je soutiens pleinement l’appel récent de dizaines de milliers de personnes, dont les leaders technologiques Steve Wozniak et Elon Musk, à suspendre le développement pour répondre aux problèmes de sécurité. Le potentiel de fraude, par exemple, est immense. Cependant, l’argument selon lequel les descendants à court terme des systèmes d’IA actuels seront super intelligents, et donc une menace majeure pour l’humanité, est prématuré.
Cela ne signifie pas que les systèmes d’IA actuels ne sont pas dangereux. Mais nous ne pouvons pas évaluer correctement une menace à moins de la catégoriser avec précision. Les LLM ne sont pas intelligents. Ce sont des systèmes formés pour donner l’apparence extérieure de l’intelligence humaine. Effrayant, mais pas si effrayant que ça.