Selon une étude, les humains sympathisent avec les robots IA et les protègent de l'exclusion des heures de jeu
Dans une étude de l’Imperial College de Londres, les humains ont fait preuve de sympathie et ont protégé les robots IA qui étaient exclus des récréations. Les chercheurs affirment que l’étude, qui a utilisé un jeu de balle virtuel, met en évidence la tendance des humains à traiter les agents d’IA comme des êtres sociaux – une tendance qui devrait être prise en compte lors de la conception de robots IA.
L'étude est publiée dans Comportement humain et technologies émergentes.
L'auteur principal Jianan Zhou, de la Dyson School of Design Engineering de l'Imperial, a déclaré : « Il s'agit d'un aperçu unique de la façon dont les humains interagissent avec l'IA, avec des implications passionnantes pour leur conception et notre psychologie. »
Les gens sont de plus en plus amenés à interagir avec des agents virtuels IA lorsqu’ils accèdent aux services, et beaucoup les utilisent également comme compagnons d’interaction sociale. Cependant, ces résultats suggèrent que les développeurs devraient éviter de concevoir des agents trop humains.
L'auteur principal, le Dr Nejra van Zalk, également de la Dyson School of Design Engineering de l'Imperial, a déclaré : « Un nombre restreint mais croissant de recherches montrent des résultats contradictoires quant à savoir si les humains traitent les agents virtuels d'IA comme des êtres sociaux. Cela soulève des questions importantes sur la façon dont les gens perçoivent et interagir avec ces agents.
« Nos résultats montrent que les participants avaient tendance à traiter les agents virtuels de l'IA comme des êtres sociaux, car ils essayaient de les inclure dans le jeu de lancer de balle s'ils sentaient que l'IA était exclue. Ceci est courant dans les interactions interhumaines, et notre Les participants ont montré la même tendance même s'ils savaient qu'ils lançaient une balle à un agent virtuel. Fait intéressant, cet effet était plus fort chez les participants plus âgés.
Les gens n’aiment pas l’ostracisme, même envers l’IA
Ressentir de l'empathie et prendre des mesures correctives contre l'injustice est quelque chose que la plupart des humains semblent programmés pour faire. Des études antérieures n’impliquant pas l’IA ont révélé que les gens avaient tendance à compenser les cibles ostracisées en leur lançant la balle plus fréquemment, et que les gens avaient également tendance à ne pas aimer l’auteur du comportement d’exclusion tout en ressentant une préférence et de la sympathie envers la cible.
Pour mener à bien l'étude, les chercheurs ont examiné la réaction de 244 participants humains lorsqu'ils ont observé qu'un agent virtuel d'IA était exclu du jeu par un autre humain dans un jeu appelé « Cyberball », dans lequel les joueurs se passent une balle virtuelle à l'écran. . Les participants étaient âgés de 18 à 62 ans.
Dans certains jeux, l'humain non participant a lancé la balle un bon nombre de fois au robot, et dans d'autres, l'humain non participant a exclu de manière flagrante le robot en lançant la balle uniquement au participant.
Les participants ont été observés puis interrogés sur leurs réactions afin de vérifier s'ils étaient favorables à lancer la balle au robot après qu'il ait été traité injustement, et pourquoi.
Ils ont constaté que la plupart du temps, les participants essayaient de rectifier l’injustice envers le bot en privilégiant le lancement de la balle au bot. Les participants plus âgés étaient plus susceptibles de percevoir une injustice.
Prudence humaine
Les chercheurs affirment qu’à mesure que les agents virtuels IA deviennent plus populaires dans les tâches collaboratives, un engagement accru avec les humains pourrait accroître notre familiarité et déclencher un traitement automatique. Cela signifierait que les utilisateurs incluraient probablement intuitivement les agents virtuels en tant que membres réels de l’équipe et interagiraient socialement avec eux.
Selon eux, cela peut être un avantage pour la collaboration professionnelle, mais cela pourrait être un problème lorsque les agents virtuels sont utilisés comme amis pour remplacer les relations humaines, ou comme conseillers en matière de santé physique ou mentale.
Jianan a déclaré : « En évitant de concevoir des agents trop humains, les développeurs pourraient aider les gens à faire la distinction entre les interactions virtuelles et réelles. Ils pourraient également adapter leur conception à des tranches d'âge spécifiques, par exemple, en tenant compte de la façon dont nos différentes caractéristiques humaines affectent notre perception. «
Les chercheurs soulignent que Cyberball pourrait ne pas représenter la manière dont les humains interagissent dans des scénarios réels, qui se produisent généralement par le biais d’un langage écrit ou parlé avec des chatbots ou des assistants vocaux. Cela aurait pu entrer en conflit avec les attentes des utilisateurs de certains participants et susciter un sentiment d'étrangeté, affectant leurs réponses au cours de l'expérience.
C’est pourquoi ils conçoivent désormais des expériences similaires utilisant des conversations en face-à-face avec des agents dans des contextes variés, comme en laboratoire ou dans des contextes plus informels. De cette façon, ils peuvent tester jusqu’où s’étendent leurs découvertes.