Les gens montrent moins de confiance et de coopération lorsqu'ils interagissent avec l'IA contre les humains
Une étude expérimentale suggère que les gens sont moins susceptibles de se comporter de manière confiante et coopérative lors de l'interaction avec l'IA que lors de l'interaction avec d'autres humains. Les scientifiques utilisent des jeux expérimentaux pour sonder comment les humains prennent des décisions sociales nécessitant une pensée rationnelle et morale.
Publié dans NEXUS PNASFabian Dvorak et ses collègues ont comparé la façon dont les humains agissent dans des jeux classiques à deux joueurs lorsqu'ils jouent avec un autre humain à la façon dont les humains agissent lorsqu'ils jouent avec un modèle grand langage agissant au nom d'un autre humain. Les participants ont joué le jeu Ultimatum, le jeu de la confiance binaire, le jeu du dilemme du prisonnier, le jeu de la chasse au cerf et le jeu de coordination. Les jeux ont été joués en ligne avec 3 552 humains et le LLM Chatgpt.
Dans l'ensemble, les joueurs ont montré moins d'équité, de confiance, de fiabilité, de coopération et de coordination lorsqu'ils savaient qu'ils jouaient avec un LLM, même si des récompenses iraient à la vraie personne pour laquelle jouait. Une expérience antérieure avec Chatgpt n'a pas atténué les effets indésirables.
Les joueurs qui ont pu choisir de déléguer ou non leur prise de décision à l'IA le faisaient souvent, surtout lorsque l'autre joueur ne saurait pas s'ils l'avaient fait. Lorsque les joueurs ne savaient pas s'ils jouaient avec un humain ou un LLM, ils se sont approchés de plus près du comportement affiché envers les joueurs humains.
Selon les auteurs, les résultats reflètent une aversion d'interagir socialement avec une IA, un exemple du phénomène plus large de l'aversion en algorithme.
Fourni par PNAS Nexus
