Tetris révèle comment les gens réagissent à une IA injuste
Crédit : domaine public CC0
Une expérience dans laquelle deux personnes jouent à une version modifiée de Tetris – le jeu vidéo d’empilement de blocs vieux de 40 ans – a révélé que les joueurs qui obtiennent moins de tours perçoivent l’autre joueur comme moins sympathique, qu’une personne ou un algorithme attribue le se tourne.
« Nous nous attendions à ce que les personnes travaillant dans une équipe se soucient d’être traitées injustement par un autre humain ou une IA », a déclaré Malte Jung, professeur agrégé de sciences de l’information au Cornell Ann S. Bowers College of Computing and Information Science, dont le groupe a dirigé l’étude.
La plupart des études sur l’équité algorithmique se concentrent sur l’algorithme ou la décision elle-même, mais Jung a cherché à explorer les relations entre les personnes affectées par les décisions.
« Nous commençons à voir de nombreuses situations dans lesquelles l’IA prend des décisions sur la manière dont les ressources doivent être réparties entre les personnes », a déclaré Jung. « Nous voulons comprendre comment cela influence la façon dont les gens se perçoivent et se comportent les uns envers les autres. Nous voyons de plus en plus de preuves que les machines perturbent la façon dont nous interagissons les uns avec les autres. »
Houston B. Claure est le premier auteur de « The Social Consequences of Machine Allocation Behavior: Fairness, Interpersonal Perceptions and Performance », publié le 27 avril dans Ordinateurs dans le comportement humain. Claure a obtenu sa maîtrise et son doctorat en génie mécanique, mineure en informatique.
Jung et Claure ont mené une étude antérieure dans laquelle un robot choisissait la personne à qui donner un bloc et étudiait les réactions de chaque individu aux décisions d’attribution de la machine.
« Nous avons remarqué qu’à chaque fois que le robot semblait préférer une personne, l’autre s’énervait », a déclaré Jung, directeur du Robots in Groups Lab. « Nous voulions étudier cela plus avant, car nous pensions que, à mesure que les machines prenant des décisions deviennent de plus en plus une partie du monde, qu’il s’agisse d’un robot ou d’un algorithme, qu’est-ce que cela fait ressentir à une personne ? »
En raison du temps nécessaire pour mener des expériences et analyser des données à l’aide d’un robot physique, Jung et Claure ont estimé qu’il existait un moyen meilleur et plus efficace d’étudier cet effet. C’est à ce moment que Tetris, initialement publié en 1984 et longtemps un outil utile pour les chercheurs cherchant à acquérir des connaissances fondamentales sur la cognition humaine, le comportement social et la mémoire, est entré en scène.
« En ce qui concerne l’allocation des ressources », a déclaré Claure, « il s’avère que Tetris n’est pas qu’un jeu, c’est un outil puissant pour mieux comprendre la relation complexe entre l’allocation des ressources, les performances et la dynamique sociale. »
À l’aide d’un logiciel open source, Claure, aujourd’hui chercheur postdoctoral à l’Université de Yale, a développé une version à deux joueurs de Tetris, dans laquelle les joueurs manipulent des blocs géométriques qui tombent afin de les empiler sans laisser d’espace avant que les blocs ne s’empilent en haut de l’écran. . La version de Claure, Co-Tetris, permet à deux personnes (une à la fois) de travailler ensemble pour terminer chaque tour.
Un « allocateur » – humain ou IA, qui a été transmis aux joueurs – détermine quel joueur prend chaque tour. Jung et Claure ont conçu leur expérience pour que les joueurs aient soit 90% des tours (la condition « plus »), 10% (« moins ») ou 50% (« égal »).
Les chercheurs ont découvert, comme on pouvait s’y attendre, que ceux qui recevaient moins de tours étaient parfaitement conscients que leur partenaire en recevait beaucoup plus. Mais ils ont été surpris de constater que les sentiments à ce sujet étaient en grande partie les mêmes, que l’attribution soit faite par un humain ou une IA.
Une découverte particulièrement intéressante : lorsque l’attribution était effectuée par une IA , le joueur recevant le plus de tours voyait son partenaire comme moins dominant, mais lorsque l’attribution était effectuée par un humain, les perceptions de dominance n’étaient pas affectées.
L’effet de ces décisions est ce que les chercheurs ont appelé le « comportement d’allocation des machines » – similaire au phénomène établi de « comportement d’allocation des ressources », le comportement observable que les gens présentent en fonction des décisions d’allocation. Jung a déclaré que le comportement d’allocation de la machine est « le concept selon lequel il existe ce comportement unique qui résulte du fait qu’une machine prend une décision sur la façon dont quelque chose est alloué ».
Les chercheurs ont également découvert que l’équité n’entraînait pas automatiquement une meilleure jouabilité et de meilleures performances. En fait, une répartition égale des tours conduit, en moyenne, à un score moins bon qu’une répartition inégale.
« Si un joueur fort reçoit la plupart des blocs », a déclaré Claure, « l’équipe va faire mieux. Et si une personne obtient 90%, elle finira par s’améliorer que si deux joueurs moyens se partagent les blocs. »
Rene Kizilcec, professeur adjoint de sciences de l’information (Cornell Bowers CIS) et co-auteur de l’étude, espère que ce travail mènera à davantage de recherches sur les effets des décisions d’IA sur les gens, en particulier dans les scénarios où les systèmes d’IA prennent des décisions continues, et non juste des choix ponctuels.
« Les outils d’IA tels que ChatGPT sont de plus en plus intégrés dans notre vie quotidienne, où les gens développent des relations avec ces outils au fil du temps », a déclaré Kizilcec, « comment, par exemple, les enseignants, les étudiants et les parents pensent à la compétence et à l’équité d’un tuteur d’IA en fonction de leurs interactions au fil des semaines et des mois compte beaucoup. »
L’autre co-auteur est Seyun Kim, doctorant en interaction homme-machine à l’Université Carnegie Mellon.