Pourquoi personnions-nous les modèles d'IA et ces métaphores sont-elles réellement utiles?
La presse a toujours utilisé des métaphores et des exemples pour simplifier les problèmes complexes et les rendre plus faciles à comprendre. Avec la montée en puissance des chatbots alimentés par l'intelligence artificielle (IA), la tendance à l'humaniser la technologie s'est intensifiée, que ce soit par des comparaisons avec la médecine, des comparaisons bien connues ou des scénarios dystopiques.
Bien que ce qui se trouve derrière l'IA ne soit rien de plus que le code et les circuits, les médias décrivent souvent des algorithmes comme ayant des qualités humaines. Alors, que perdons-nous, et que gagnons-nous, lorsque l'IA cesse d'être un simple appareil et devient, linguistiquement parlant, un alter ego humain, une entité qui « pense », « se sent » et même « se soucie »?
Le cerveau numérique
Un article dans le journal espagnol El País a présenté le modèle de l'IA chinois Deepseek comme un « cerveau numérique » qui « semble comprendre clairement le contexte géopolitique de sa naissance ».
Cette façon d'écrire remplace le jargon technique – le modèle fondamental, les paramètres, le GPU, etc. – avec un organe que nous reconnaissons tous comme le noyau de l'intelligence humaine. Cela a deux résultats. Il permet aux gens de comprendre l'ampleur et la nature de la tâche («pensée») effectuée par la machine. Cependant, cela suggère également que l'IA a un «esprit» capable de porter des jugements et de se souvenir des contextes – quelque chose qui est actuellement loin de la réalité technique.
Cette métaphore s'inscrit dans la théorie classique de la métaphore conceptuelle de George Lakoff et Mark Johnson, qui soutient que les concepts servent à aider les humains à comprendre la réalité et à leur permettre de penser et d'agir. En parlant de l'IA, cela signifie que nous transformons des capacités abstraites difficiles (« calcul statistique ») en plus familières (« pensée »).
Bien que potentiellement utile, cette tendance couvre le risque d'obscurcir la différence entre la corrélation statistique et la compréhension sémantique. Il renforce l'illusion que les systèmes informatiques peuvent vraiment « savoir » quelque chose.
Machines avec des sentiments
En février 2025, ABC a publié un rapport sur « IA émotionnel » qui a demandé: « Va-t-il un jour où ils seront capables de ressentir? » Le texte a raconté les progrès réalisés par une équipe espagnole tentant d'équiper les systèmes d'IA conversationnels d'un «système limbique numérique».
Ici, la métaphore devient encore plus audacieuse. L'algorithme ne pense plus seulement, mais peut aussi souffrir ou ressentir de la joie. Cette comparaison dramatise l'innovation et le rapproche du lecteur, mais il porte des erreurs conceptuelles: par définition, les sentiments sont liés à l'existence corporelle et à la conscience de soi, que les logiciels ne peuvent pas avoir. La présentation de l'IA comme un « sujet émotionnel » facilite l'exiger de l'empathie ou le blâme pour la cruauté. Il déplace donc l'attention morale des personnes qui conçoivent et programment la machine à la machine elle-même.
Un article similaire a reflété que « si l'intelligence artificielle semble humaine, a des sentiments comme un humain et vit comme un humain… qu'en est-il important s'il s'agit d'une machine? »
Robots qui se soucient
Les robots humanoïdes sont souvent présentés en ces termes. Un rapport d'El País sur la poussée de la Chine pour les androïdes des soins aux personnes âgées les a décrits comme des machines qui « prennent soin de leurs aînés ». En disant «prenez soin de», l'article fait référence au devoir de la famille de s'occuper de leurs aînés, et le robot est présenté comme un parent qui fournira la compagnie émotionnelle et l'assistance physique qui avait précédemment été fournie par la famille ou le personnel infirmier.
Cette métaphore des soignants n'est pas si mauvaise. Il légitime l'innovation dans un contexte de crise démographique, tout en apaisant les peurs technologiques en présentant le robot comme un soutien essentiel face aux pénuries de personnel, par opposition à une menace pour les emplois.
Cependant, cela pourrait être considéré comme obscurci les problèmes éthiques entourant la responsabilité lorsque le travail de prestation de soins est effectué par une machine gérée par des entreprises privées – sans mentionner la nature déjà précaire de ce type de travail.
L'assistant du médecin
Dans un autre rapport d'El País, les modèles de grande langue ont été présentés comme un assistant ou une «extension» d'un médecin, capable de revoir les dossiers médicaux et de suggérer des diagnostics. La métaphore du « scalpel intelligent » ou du « résident infatigable » positionne l'IA dans le système de soins de santé en tant que collaborateur de confiance plutôt que de substitut.
Ce cadre hybride – ni un dispositif inerte ni un collègue autonome – les fosiers de l'acceptation du public, car il respecte l'autorité médicale tout en promettant une efficacité. Cependant, cela ouvre également des discussions sur la responsabilité: si la « prolongation » fait une erreur, le blâme met-il à l'origine humaine, au logiciel ou à la société qui le commercialise?
Pourquoi la presse s'appuie-t-elle sur la métaphore?
Plus qu'un épanouissement décoratif, ces métaphores servent au moins trois objectifs. D'abord et avant tout, ils facilitent la compréhension. Expliquer les réseaux de neurones profonds nécessite du temps et du jargon technique, mais parler de « cerveaux » est plus facile à digérer pour les lecteurs.
Deuxièmement, ils créent un drame narratif. Le journalisme prospère sur des histoires avec des protagonistes, des conflits et des résultats. L'humanisation de l'IA crée celles-ci, ainsi que des héros et des méchants, des mentors et des apprentis.
Troisièmement, les métaphores servent à formuler des jugements moraux. Ce n'est que si l'algorithme ressemble à un sujet peut être tenu responsable, ou en vigueur.
Cependant, ces mêmes métaphores peuvent entraver les délibérations publiques. Si l'IA « se sent », alors il va de soi qu'il devrait être réglementé comme les citoyens. De même, s'il est considéré comme ayant une intelligence supérieure à la nôtre, il semble naturel que nous acceptions son autorité.
Comment parler de l'IA
Se débarrasser de ces métaphores serait impossible, ni quelque chose que nous devrions nous efforcer. Le langage figuratif est la façon dont les êtres humains comprennent l'inconnu, mais l'important est de l'utiliser de manière critique. À cette fin, nous proposons quelques recommandations pour les écrivains et les éditeurs:
Bien que l'intelligence artificielle «humanisant» dans la presse aide les lecteurs à se familiariser avec la technologie complexe, plus l'IA ressemble à nous, plus il est facile de projeter les peurs, les espoirs et les responsabilités sur les serveurs et les lignes de code.
À mesure que cette technologie se développe davantage, la tâche auxquelles sont confrontés les journalistes – ainsi que leurs lecteurs – à trouver un équilibre délicat entre le pouvoir évocateur de la métaphore et la précision conceptuelle dont nous avons besoin si nous voulons avoir des débats informés sur l'avenir.
