L’IA nous immunise contre les opinions contraires

L’IA nous immunise contre les opinions contraires

Avant, pour créer votre chambre d’écho, vous ne pouviez suivre que des personnes partageant les mêmes idées sur les réseaux. Vous pouvez désormais créer votre propre chambre d’écho personnalisée avec une IA. Une étude de Stanford a analysé en profondeur l’adulation excessive des LLM et le résultat est sans appel : si vous voulez qu’on vous dise ce que vous voulez entendre, il vaut mieux parler à l’IA plutôt qu’à une personne.

L’étude. Les chercheurs ont analysé onze modèles de langage, dont les plus populaires comme ChatGPT, Gemini, Claude ou DeepSeek, et les ont alimentés avec des ensembles de données sur des dilemmes personnels. De plus, ils comprenaient 2 000 invites tirées de la communauté Reddit. Environ un tiers de tous les scénarios incluaient un comportement préjudiciable ou carrément illégal. Ensuite, ils ont comparé les réponses LLM avec les réponses humaines pour voir qui a tendance à être le plus d’accord avec l’utilisateur.

Dans une deuxième partie de l’étude, ils ont recruté 2 400 participants et leur ont fait discuter avec des modèles de langage flatteurs et non flatteurs.

Nous aimons avoir raison. Les chatbots ont tendance à être beaucoup plus flatteurs qu’un humain lorsqu’ils donnent des conseils personnels, mais pas seulement, les gens préfèrent généralement ce type de réponses. Les modèles approuvent la position de l’utilisateur 49 % plus que celle des humains dans les dilemmes généraux et approuvent les comportements nuisibles 47 % plus.

Dans la deuxième expérience, les personnes qui ont discuté avec différents modèles ont considéré le modèle flagorneur comme plus fiable et préférable. De plus, elle est ressortie plus convaincue d’avoir raison et moins disposée à s’excuser ou à réparer le conflit.

Pourquoi est-ce un problème ? Selon les auteurs, les LLM peuvent renforcer l’égocentrisme et rendre les gens plus dogmatiques moralement. Selon Myra Cheng, co-auteur de l’étude, « Par défaut, les conseils de l’IA ne disent pas aux gens qu’ils ont tort ni ne leur donnent une confrontation avec la réalité (…) Je crains que les gens perdent la capacité de faire face à des situations sociales difficiles. » De plus, il y a un autre fait inquiétant, c’est que les utilisateurs ont perçu les modèles comme tout aussi objectifs, ce qui suggère un manque de vision critique pour pouvoir distinguer une IA flatteuse d’une IA non flatteuse.

L’IA n’est pas une personne. C’est évident, mais la réalité est que chaque jour nous abordons les chatbots IA comme s’il s’agissait d’un seul chatbot. Le remercier et lui demander des choses s’il vous plaît est un symptôme inoffensif de notre obsession de tout anthropoformiser. Cependant, lorsque l’on utilise l’IA comme substitut à un psychologue ou lorsque l’on établit des relations intimes avec un chatbot, c’est là que l’on commence à marcher sur un terrain fragile. Les auteurs de l’étude considèrent qu’il est urgent que les entreprises mettent en place des garde-fous pour réduire la complaisance excessive des LLM et conseillent d’éviter de les utiliser comme substitut à une personne pour gérer des conflits personnels.

Le contrepoint. Certaines voix affirment que l’IA ne génère pas ces chambres d’écho, du moins pas avec autant d’intensité que ce que nous avons vu avec les réseaux sociaux. Selon John Burn-Murdoch dans le Financial Times, les modèles linguistiques ont tendance à susciter un consensus auprès des experts et à générer des opinions plus modérées que les réseaux. Leur argument est que l’architecture économique des réseaux récompense les contenus incendiaires et polarisants, tandis que les chatbots rivalisent pour offrir des réponses fiables aux utilisateurs qui les utilisent pour prendre des décisions importantes.

Ce n’est pas seulement une opinion, il a également réalisé une expérience dans laquelle il a simulé des milliers de conversations politiques entre des utilisateurs aux positions extrêmes et plusieurs des principaux chatbots du marché. S’appuyant sur des enquêtes électorales et des données sur l’utilisation de ces outils, il mesure l’évolution des positions si une partie des citoyens utilisait l’IA pour s’informer. L’auteur conclut qu’en moyenne, les modèles tendent à pousser les plus radicaux vers des positions plus tempérées et plus proches du consensus des experts, validant également beaucoup moins de théories du complot que celles qui circulent régulièrement sur les réseaux sociaux.

À Simseo | Les IA sont devenues des outils d’accompagnement contre la solitude. Pour certains chercheurs, il s’agit de « malbouffe »

Images | Zulfugar Karimov sur Unsplash