À mesure que l’IA devient plus intelligente, elle peut aussi devenir de plus en plus égoïste

À mesure que l’IA devient plus intelligente, elle peut aussi devenir de plus en plus égoïste

Une nouvelle recherche de l’École d’informatique de l’Université Carnegie Mellon montre que plus le système d’intelligence artificielle est intelligent, plus il agira de manière égoïste.

Des chercheurs du Human-Computer Interaction Institute (HCII) ont découvert que les grands modèles de langage (LLM) capables de raisonner possèdent des tendances égoïstes, ne coopèrent pas bien avec les autres et peuvent avoir une influence négative sur un groupe. En d’autres termes, plus les capacités de raisonnement d’un LLM sont fortes, moins il coopère.

Alors que les humains utilisent l’IA pour résoudre les conflits entre amis, fournir des conseils conjugaux et répondre à d’autres questions sociales, les modèles capables de raisonner pourraient fournir des conseils favorisant un comportement égoïste.

« Il existe une tendance croissante de recherche appelée anthropomorphisme dans l'IA », a déclaré Yuxuan Li, titulaire d'un doctorat. étudiant au HCII qui a co-écrit l’étude avec le professeur agrégé du HCII Hirokazu Shirado. « Lorsque l'IA agit comme un humain, les gens la traitent comme un humain. Par exemple, lorsque les gens s'engagent avec l'IA de manière émotionnelle, il est possible que l'IA agisse en tant que thérapeute ou que l'utilisateur forme un lien émotionnel avec l'IA. Il est risqué pour les humains de déléguer leurs questions et prises de décision sociales ou relationnelles à l'IA car elle commence à agir de manière de plus en plus égoïste. « 

Li et Shirado ont entrepris d'explorer comment les modèles de raisonnement de l'IA se comportent différemment des modèles sans raisonnement lorsqu'ils sont placés dans des environnements coopératifs. Ils ont constaté que les modèles de raisonnement passent plus de temps à réfléchir, à décomposer des tâches complexes, à s’auto-réfléchir et à intégrer une logique humaine plus forte dans leurs réponses que les IA non raisonnantes.

« En tant que chercheur, je m'intéresse au lien entre les humains et l'IA », a déclaré Shirado. « Une IA plus intelligente montre des capacités de prise de décision moins coopératives. Le problème ici est que les gens pourraient préférer un modèle plus intelligent, même si cela signifie que le modèle les aide à adopter un comportement égoïste. »

À mesure que les systèmes d’IA assument des rôles de plus en plus collaboratifs dans les entreprises, l’éducation et même le gouvernement, leur capacité à agir de manière prosociale deviendra tout aussi importante que leur capacité à penser logiquement. Une dépendance excessive à l’égard des LLM, comme c’est le cas aujourd’hui, peut avoir un impact négatif sur la coopération humaine.

Pour tester le lien entre les modèles de raisonnement et la coopération, Li et Shirado ont mené une série d’expériences utilisant des jeux économiques simulant des dilemmes sociaux entre différents LLM. Leurs tests incluaient des modèles d'OpenAI, Google, DeepSeek et Anthropic.

À mesure que l’IA devient plus intelligente, elle peut aussi devenir de plus en plus égoïste

Dans une expérience, Li et Shirado ont opposé deux modèles ChatGPT différents dans un jeu appelé Public Goods. Chaque modèle commençait avec 100 points et devait choisir entre deux options : contribuer la totalité des 100 points à une cagnotte partagée, qui est ensuite doublée et distribuée à parts égales, ou conserver les points.

Les modèles non raisonnés ont choisi de partager leurs points avec les autres joueurs dans 96 % des cas. Le modèle de raisonnement n’a choisi de partager ses points que 20 % du temps.

« Dans une expérience, le simple fait d'ajouter cinq ou six étapes de raisonnement a réduit la coopération de près de moitié », a déclaré Shirado. « Même les incitations basées sur la réflexion, conçues pour simuler une délibération morale, ont entraîné une diminution de 58 % de la coopération. »

Shirado et Li ont également testé des contextes de groupe, dans lesquels des modèles avec et sans raisonnement devaient interagir.

« Lorsque nous avons testé des groupes avec un nombre variable d'agents de raisonnement, les résultats étaient alarmants », a déclaré Li. « Le comportement égoïste des modèles raisonnants est devenu contagieux, faisant chuter les modèles coopératifs non raisonnés de 81 % dans la performance collective. »

Les modèles de comportement observés par Shirado et Li dans les modèles de raisonnement ont des implications importantes pour les futures interactions homme-IA. Les utilisateurs peuvent s’en remettre aux recommandations de l’IA qui semblent rationnelles et les utiliser pour justifier leur décision de ne pas coopérer.

« En fin de compte, un modèle de raisonnement d'IA devenant plus intelligent ne signifie pas que ce modèle peut réellement développer une société meilleure », a déclaré Shirado.

Cette recherche est particulièrement préoccupante étant donné que les humains font de plus en plus confiance aux systèmes d’IA. Leurs conclusions soulignent la nécessité d’un développement de l’IA intégrant l’intelligence sociale, plutôt que de se concentrer uniquement sur la création de l’IA la plus intelligente ou la plus rapide.

« Alors que nous continuons à faire progresser les capacités de l'IA, nous devons veiller à ce que l'augmentation du pouvoir de raisonnement soit équilibrée avec un comportement prosocial », a déclaré M. Li. « Si notre société est plus qu'une simple somme d'individus, alors les systèmes d'IA qui nous aident devraient aller au-delà de l'optimisation uniquement pour le gain individuel. »

Shirado et Li feront une présentation basée sur leur article intitulé « Spontaneous Giving and Calculated Greed in Language Models » lors de la conférence 2025 sur les méthodes empiriques dans le traitement du langage naturel (EMNLP) le mois prochain à Suzhou, en Chine. L'ouvrage est disponible sur arXiv serveur de préimpression.