La montée des chatbots humains nuise à la développement de l'IA pour le bien humain
Grok est un chatbot d'intelligence artificielle générative (Genai) de XAI qui, selon Elon Musk, est « l'IA la plus intelligente du monde ». La dernière mise à niveau de Grok est Ani, une petite amie d'anime compatible avec le porno, récemment rejoint par un petit ami informé par « Twilight » et « 50 Shades of Gray ».
Cet été, XAI et OpenAI ont lancé des versions mises à jour de leurs chatbots. Chacun a vanté des performances améliorées, mais plus particulièrement, de nouvelles personnalités. Xai a introduit Ani; Openai a déployé un GPT-5 plus froide par défaut avec quatre personnages pour remplacer son modèle GPT-4O sycophantique sans faille.
Semblables aux réclamations faites par Google Deepmind et Anthropic, les deux sociétés insistent sur le fait qu'elles construisent l'IA au profit de « toute l'humanité » et de « faire progresser la compréhension humaine ». Anthropic affirme, au moins rhétoriquement, à le faire de manière responsable. Mais leurs choix de conception suggèrent le contraire.
Au lieu d'équiper chaque personne un assistant d'IA – un collaborateur de recherche avec des renseignements au niveau du doctorat – certains des dirigeants d'aujourd'hui ont publié des systèmes d'IA anthropomorphisés qui fonctionnent d'abord comme des amis, des amoureux et des thérapeutes.
En tant que chercheurs et experts en politique et impact sur l'IA, nous soutenons que ce qui est vendu comme une infrastructure scientifique ressemble de plus en plus à la science-fiction qui a mal tourné. Ces chatbots ne sont pas conçus non comme des outils de découverte, mais comme des compagnons conçus pour favoriser les obligations para-sociales et non enregistrées.
Humain / non humain
Le problème central est l'anthropomorphisme: la projection des traits humains sur des entités non humaines. Comme l'explique Pascal Boyer, le scientifique cognitif, nos esprits sont réglés pour interpréter même les indices minimaux en termes sociaux. Ce qui a autrefois aidé la survie de nos ancêtres alimente désormais les entreprises de l'IA en capturant l'esprit de leurs utilisateurs.
Lorsque les machines parlent, font un geste ou simulent l'émotion, elles déclenchent ces mêmes instincts évolués de sorte que, au lieu de le reconnaître comme une machine, les utilisateurs le perçoivent comme un humain.
Néanmoins, les sociétés d'IA ont poussé, la construction de systèmes qui exploitent ces biais. La justification est que cela rend l'interaction sans couture et intuitive. Cependant, les conséquences qui en résultent peuvent rendre la conception anthropomorphe trompeuse et malhonnête.
Conséquences de la conception anthropomorphe
Dans sa forme la plus douce, la conception anthropomorphe invite les utilisateurs à répondre comme s'il y avait un autre humain de l'autre côté de l'échange, et peut être aussi simple que de dire « merci ».
Les enjeux augmentent lorsque l'anthropomorphisme amène les utilisateurs à croire que le système est conscient: qu'il ressent de la douleur, renverse l'affection ou comprend leurs problèmes. Bien que de nouvelles recherches révèlent qu'il est possible que les critères de conscience puissent être remplis à l'avenir, de fausses attributions de conscience et d'émotion ont conduit à des résultats extrêmes, tels que les utilisateurs conduisant à épouser leurs compagnons d'IA.
Cependant, le design anthropomorphe n'inspire pas toujours l'amour. Pour d'autres, cela a conduit à l'automutilation ou à nuire aux autres après avoir formé des attachements malsains.
Certains utilisateurs se comportent même comme si l'IA pouvait être humiliée ou manipulée, en se déchaînant de manière abusive comme s'il s'agissait d'une cible humaine. Reconnaissant cela, Anthropic, la première entreprise à embaucher un expert en protection sociale de l'IA, a donné à ses modèles Claude la capacité inhabituelle de mettre fin à de telles conversations.
À travers ce spectre, la conception anthropomorphe éloigne les utilisateurs de tirer parti des véritables capacités de l'IA, nous obligeant à faire face à la question urgente de savoir si l'anthropomorphisme constitue un défaut de conception – ou plus critique, une crise.
Dés-anthropomorphisant l'IA
La solution évidente semble être le désactivation des systèmes d'IA de leur humanité. Le philosophe américain et scientifique cognitif Daniel Dennett a fait valoir que cela pourrait être le seul espoir de l'humanité. Mais une telle solution est loin d'être simple car l'anthropomorphisation de ces systèmes a déjà conduit les utilisateurs à former des pièces jointes émotionnelles profondes.
Lorsque OpenAI a remplacé GPT-4O par GPT-5 comme défaut de Chatgpt, certains utilisateurs ont exprimé une véritable détresse et ont véritablement pleuré la perte de 4O. Cependant, ce qu'ils ont pleuré, c'est la perte de ses modèles de discours antérieurs et la façon dont il a utilisé la langue.
C'est ce qui fait de l'anthropomorphisme un modèle de conception problématique. En raison des capacités linguistiques impressionnantes de ces systèmes, les utilisateurs leur attribuent la mentalité – et leurs personnages d'ingénierie exploitent cela plus loin.
Au lieu de voir la machine pour ce qu'elle est – de manière impressionnante mais pas humaine – les utilisateurs lisent ses modèles de discours. Alors que le pionnier de l'IA Geoffrey Hinton prévient que ces systèmes peuvent être dangereusement compétents, quelque chose de beaucoup plus insidieux semble résulter du fait que ces systèmes sont anthropomorphisés.
Défaut dans la conception
Les entreprises d'IA s'adressent de plus en plus aux désirs des compagnies d'IA des gens, qu'ils soient sexbot ou thérapeutes.
L'anthropomorphisme est ce qui rend ces systèmes dangereux aujourd'hui parce que les humains les ont intentionnellement construits pour nous imiter et exploiter nos instincts. Si la conscience de l'IA s'avère impossible, ces choix de conception seront la cause de la souffrance humaine.
Mais dans un monde hypothétique dans lequel l'IA atteint la conscience, notre choix de le forcer dans un esprit de forme humaine – pour notre propre commodité et de divertissement, reproduit dans les centres de données du monde – peut inventer un tout nouveau type et échelle de souffrance.
Le véritable danger de l'IA anthropomorphe n'est pas un avenir proche ou lointain où les machines prennent le relais. Le danger est là, maintenant, et se cache dans l'illusion que ces systèmes sont comme nous.
Ce n'est pas le modèle qui « profitera à toute l'humanité » (comme le promet Openai) ou « nous aidera à comprendre l'univers » (comme le prétend Elon Musk de Xai). Pour le bien social et scientifique, nous devons résister à la conception anthropomorphe et commencer le travail de dés-anthropomorphisation de l'IA.
