Lorsque l’IA semble divulguer des informations personnelles, les utilisateurs peuvent être plus empathiques
Dans une nouvelle étude, les participants ont montré plus d’empathie pour un agent d’intelligence artificielle (IA) anthropomorphique en ligne lorsqu’il semblait divulguer des informations personnelles sur lui-même tout en discutant avec les participants. Takahiro Tsumura de la Graduate University for Advanced Studies, SOKENDAI à Tokyo, au Japon, et Seiji Yamada de l’Institut national d’informatique, également à Tokyo, présentent ces résultats dans la revue en libre accès PLOS ONE le 10 mai 2023.
L’utilisation de l’IA dans la vie quotidienne augmente, suscitant l’intérêt pour les facteurs qui pourraient contribuer au niveau de confiance et d’acceptation que les gens ressentent envers les agents de l’IA. Des recherches antérieures ont suggéré que les gens sont plus susceptibles d’accepter des objets artificiels si les objets suscitent de l’empathie. Par exemple, les gens peuvent sympathiser avec les robots de nettoyage, les robots qui imitent les animaux de compagnie et les outils de chat anthropomorphes qui fournissent une assistance sur les sites Web.
Des recherches antérieures ont également souligné l’importance de la divulgation d’informations personnelles dans l’établissement de relations humaines. À partir de ces découvertes, Tsumura et Yamada ont émis l’hypothèse que la divulgation de soi par un agent d’IA anthropomorphique pourrait renforcer l’empathie des gens envers ces agents.
Pour tester cette idée, les chercheurs ont mené des expériences en ligne dans lesquelles les participants avaient une conversation textuelle avec un agent d’IA en ligne qui était visuellement représenté soit par une illustration de type humain, soit par une illustration d’un robot anthropomorphe. Le chat impliquait un scénario dans lequel le participant et l’agent étaient des collègues en pause déjeuner sur le lieu de travail de l’agent. Dans chaque conversation, l’agent semblait divulguer lui-même des informations personnelles très pertinentes pour le travail, des informations moins pertinentes sur un passe-temps ou aucune information personnelle.
L’analyse finale comprenait les données de 918 participants dont l’empathie pour l’agent d’IA a été évaluée à l’aide d’un questionnaire d’empathie standard. Les chercheurs ont découvert que, par rapport à une auto-divulgation moins pertinente, une auto-divulgation très pertinente pour le travail de la part de l’agent d’IA était associée à une plus grande empathie de la part des participants. Un manque de révélation de soi était associé à une empathie supprimée. L’apparence de l’agent en tant qu’humain ou robot anthropomorphe n’avait pas d’association significative avec les niveaux d’empathie.
Ces résultats suggèrent que l’auto-divulgation par les agents d’IA peut, en effet, susciter l’empathie des humains, ce qui pourrait aider à éclairer le développement futur des outils d’IA.
Les auteurs ajoutent : « Cette étude examine si la révélation de soi par des agents anthropomorphes affecte l’empathie humaine. Notre recherche changera l’image négative des artefacts utilisés dans la société et contribuera aux futures relations sociales entre les humains et les agents anthropomorphes.