Une expérience en ligne révèle que les gens préfèrent l'IA pour prendre des décisions de redistribution

Une expérience en ligne révèle que les gens préfèrent l'IA pour prendre des décisions de redistribution

Une nouvelle étude a révélé que les gens préfèrent l’intelligence artificielle (IA) aux humains lorsqu’il s’agit de prendre des décisions de redistribution.

Alors que la technologie continue de s’intégrer dans divers aspects de la prise de décision publique et privée, comprendre la perception et la satisfaction du public et garantir la transparence et la responsabilité des algorithmes seront essentiels à leur acceptation et à leur efficacité.

L'étude, menée par des chercheurs de l'Université de Portsmouth et de l'Institut Max Planck pour l'innovation et la concurrence, a examiné les attitudes du public à l'égard de la prise de décision algorithmique par rapport à la prise de décision humaine et a examiné l'impact d'une discrimination potentielle sur ces préférences. La recherche est publiée dans la revue Choix public.

Une expérience de décision en ligne a été utilisée pour étudier la préférence entre les décideurs humains ou IA, où les revenus de deux personnes pourraient être redistribués entre elles après l'exécution d'une série de tâches. Plus de 200 participants du Royaume-Uni et d'Allemagne ont été invités à voter pour savoir s'ils souhaitaient qu'un humain ou un algorithme (IA) prenne la décision qui déterminerait le montant de leurs revenus.

Contrairement aux résultats précédents, plus de 60 % des participants ont choisi l’IA plutôt qu’un humain pour décider de la redistribution des revenus. Les participants ont préféré l’algorithme, indépendamment du risque de discrimination. Cette préférence remet en cause l’idée conventionnelle selon laquelle les décideurs humains sont favorisés dans les décisions impliquant une composante « morale » telle que l’équité.

Cependant, malgré la préférence pour les algorithmes, lors de l'évaluation des décisions prises, les participants étaient moins satisfaits de la décision de l'IA et la trouvaient moins « juste » que celle prise par les humains.

Les évaluations subjectives des décisions sont principalement motivées par les intérêts matériels et les idéaux d'équité des participants. Les participants pouvaient tolérer tout écart raisonnable entre la décision réelle et leurs idéaux, mais réagissaient très fortement et négativement aux décisions de redistribution qui n'étaient pas conformes à l'un des principes d'équité établis.

Le Dr Wolfgang Luhan, professeur associé d'économie comportementale à l'École de comptabilité, d'économie et de finance de l'Université de Portsmouth et auteur correspondant de l'étude, a déclaré : « Nos recherches suggèrent que si les gens sont ouverts à l'idée de décideurs algorithmiques, notamment en raison de leur potentiel de prise de décisions impartiales, les performances réelles et la capacité d'expliquer comment ils décident jouent un rôle crucial dans l'acceptation. En particulier dans les contextes de prise de décision morale, la transparence et la responsabilité des algorithmes sont vitales. »

« De nombreuses entreprises utilisent déjà l’IA pour prendre des décisions d’embauche et planifier les rémunérations, et les organismes publics emploient l’IA dans les stratégies de maintien de l’ordre et de libération conditionnelle. Nos conclusions suggèrent qu’avec l’amélioration de la cohérence des algorithmes, le public pourrait de plus en plus soutenir les décideurs algorithmiques, même dans des domaines moralement importants.

« Si la bonne approche en matière d’IA est adoptée, cela pourrait réellement améliorer l’acceptation des politiques et des choix managériaux tels que les augmentations de salaire ou les primes. »