Une enquête montre que la plupart des gens pensent que les LLM tels que ChatGPT peuvent éprouver des sentiments et des souvenirs

Une enquête montre que la plupart des gens pensent que les LLM tels que ChatGPT peuvent éprouver des sentiments et des souvenirs

Selon une nouvelle étude de l’Université de Waterloo, les deux tiers des personnes interrogées pensent que les outils d’intelligence artificielle (IA) comme ChatGPT ont un certain degré de conscience et peuvent avoir des expériences subjectives telles que des sentiments et des souvenirs.

Les grands modèles de langage (LLM) comme ChatGPT affichent souvent un style conversationnel lors de la sortie de contenu. Ces capacités de type humain ont suscité des débats sur la question de savoir si l'IA a une conscience.

Selon les chercheurs, si les gens croient que l’IA a un certain niveau de conscience, cela pourrait à terme affecter la façon dont les gens interagissent avec les outils d’IA, renforçant potentiellement les liens sociaux et augmentant la confiance. D’un autre côté, une confiance excessive peut également conduire à une dépendance émotionnelle, à une réduction des interactions humaines et à une dépendance excessive à l’IA pour prendre des décisions critiques.

L'article «Attributions psychologiques populaires de la conscience aux grands modèles de langage» a été publié dans Neurosciences de la conscience.

« Alors que la plupart des experts nient que l'IA actuelle puisse être consciente, nos recherches montrent que pour la plupart du grand public, la conscience de l'IA est déjà une réalité », a déclaré le Dr Clara Colombatto, professeur de psychologie à la faculté des arts de Waterloo.

Pour comprendre les attitudes du public à l’égard de la conscience de l’IA, Colombatto et son collègue, le Dr Steve Fleming de l’University College de Londres, ont interrogé un échantillon stratifié de 300 personnes aux États-Unis et leur ont demandé si elles pensaient que ChatGPT pouvait avoir la capacité de conscience, ainsi qu’une variété d’autres états mentaux – tels que la capacité de faire des plans, de raisonner et de ressentir des émotions – et à quelle fréquence elles utilisaient l’outil.

L’étude a révélé que plus les gens utilisaient ChatGPT, plus ils étaient susceptibles de lui attribuer une conscience, une considération importante alors que les outils d’IA font de plus en plus partie de notre vie quotidienne.

« Ces résultats démontrent le pouvoir du langage, car une conversation à elle seule peut nous amener à penser qu'un agent qui a une apparence et un fonctionnement très différents de nous peut avoir un esprit », a déclaré Colombatto.

« Parallèlement aux émotions, la conscience est liée à des capacités intellectuelles essentielles à la responsabilité morale : la capacité à formuler des plans, à agir intentionnellement et à se maîtriser sont des principes de nos systèmes éthiques et juridiques. Ces attitudes publiques devraient donc être une considération clé dans la conception et la réglementation de l'IA pour une utilisation sûre, aux côtés du consensus des experts. »

Les recherches futures exploreront des facteurs plus spécifiques qui déterminent ces attributions de conscience, et leurs conséquences sur la confiance et le lien social, ainsi que les variations possibles au sein d’une même personne au fil du temps, et entre différentes personnes dans d’autres pays et cultures.