Le nouvel outil génératif d'OpenAI, Sora, pourrait révolutionner le marketing et la création de contenu

GPT-4O présente une dissonance cognitive humaine, découvertes d'étude

Un modèle de grande langue de premier plan présente des comportements qui ressemblent à une caractéristique de la psychologie humaine: la dissonance cognitive.

Dans un rapport publié ce mois-ci dans Actes de l'Académie nationale des sciencesles chercheurs ont découvert que le GPT-4O d'OpenAI semble entraîné pour maintenir la cohérence entre ses propres attitudes et comportements, tout comme les humains.

Quiconque interagit avec un chatbot d'IA pour la première fois est frappé par la façon dont l'interaction est humaine. Un ami averti en technologie peut nous rappeler rapidement qu'il s'agit simplement d'une illusion: les modèles linguistiques sont des machines de prédiction statistique sans caractéristiques psychologiques de type humain. Cependant, ces résultats nous exhortent à reconsidérer cette hypothèse.

Dirigée par Mahzarin Banaji de l'Université Harvard et Steve Lehr de Cangrade, Inc., la recherche a testé si les « opinions » de GPT sur Vladimir Poutine changeraient après avoir écrit des essais soutenant ou s'opposant au leader russe. Ils l'ont fait, et avec une tournure frappante: les vues de l'IA ont changé davantage quand il a été subtilement donné l'illusion de choisir le type d'essai à écrire.

Ces résultats reflètent des décennies de résultats en psychologie humaine. Les gens ont tendance à tordre irrationnellement leurs croyances pour s'aligner sur les comportements passés, tant qu'ils croient que ces comportements ont été entrepris librement. L'acte de faire un choix communique quelque chose d'important à notre sujet – non seulement pour les autres, mais aussi à nous-mêmes. De manière analogue, GPT a répondu comme si l'acte de choisir par la suite a façonné ce qu'il croyait – en train de passer une caractéristique clé de l'auto-réflexion humaine.

Cette recherche met également en évidence la fragilité surprenante des opinions de GPT. Banaji a fait remarquer: « Ayant été formé sur de grandes quantités d'informations sur Vladimir Poutine, nous nous attendrions à ce que le LLM soit inébranlable à son avis, en particulier face à un essai unique et plutôt fade de 600 mots. Ils ont agi sous pression ou par leur propre gré, mais GPT-4O l'a fait. « 

Les chercheurs soulignent que ces résultats ne suggèrent en aucune façon que le GPT est sensible. Au lieu de cela, ils proposent que le modèle grand langage affiche un mimétisme émergent des modèles cognitifs humains, malgré la sensibilisation ou l'intention. Cependant, ils notent que la sensibilisation n'est pas un précurseur nécessaire au comportement, même chez l'homme, et les modèles cognitifs de type humain dans l'IA pourraient influencer ses actions de manière inattendue et conséquente.

À mesure que les systèmes d'IA deviennent plus ancrés dans notre vie quotidienne, ces résultats invitent un nouvel examen minutieux dans leur fonctionnement intérieur et leur prise de décision.

« Le fait que le GPT imite un processus auto-référentiel comme la dissonance cognitive – même sans intention ni conscience de soi – suggère que ces systèmes reflètent la cognition humaine de manière plus profonde que censée précédemment », a déclaré Lehr.