L’intelligence artificielle de type humain pourrait être davantage blâmée pour violations morales
Dans une nouvelle étude, les participants avaient tendance à blâmer davantage les intelligences artificielles (IA) impliquées dans des transgressions morales du monde réel lorsqu’ils percevaient les IA comme ayant un esprit plus humain. Minjoo Joo de l'Université des femmes Sookmyung à Séoul, en Corée, présente ces résultats dans la revue en libre accès PLOS UN le 18 décembre 2024.
Des recherches antérieures ont révélé une tendance des gens à blâmer l'IA pour diverses transgressions morales, comme dans les cas où un véhicule autonome heurte un piéton ou dans les décisions qui ont causé des dommages médicaux ou militaires.
Des recherches supplémentaires suggèrent que les gens ont tendance à blâmer davantage les IA perçues comme capables de conscience, de réflexion et de planification. Les gens sont peut-être plus susceptibles d’attribuer ces capacités aux IA qu’ils perçoivent comme ayant un esprit semblable à celui des humains, capable d’éprouver des sentiments conscients.
Sur la base de ces recherches antérieures, Joo a émis l’hypothèse que les IA perçues comme ayant un esprit semblable à celui des humains pourraient être davantage blâmées pour une transgression morale donnée.
Pour tester cette idée, Joo a mené plusieurs expériences dans lesquelles les participants ont été confrontés à divers cas réels de transgressions morales impliquant des IA (telles que le marquage automatique raciste de photos) et ont été interrogés pour évaluer la perception qu'avait leur esprit de l'IA impliquée, comme ainsi que la mesure dans laquelle ils ont imputé la faute à l’IA, à son programmeur, à l’entreprise derrière elle ou au gouvernement.
Dans certains cas, la perception mentale de l’IA a été manipulée en décrivant un nom, un âge, une taille et un passe-temps pour l’IA.
Au cours des expériences, les participants avaient tendance à blâmer beaucoup plus une IA lorsqu’ils la percevaient comme ayant un esprit plus humain. Dans ces cas, lorsqu’il était demandé aux participants de répartir les reproches relatifs, ils avaient tendance à attribuer moins de reproches à l’entreprise impliquée. Mais lorsqu’on lui a demandé d’évaluer le niveau de faute de manière indépendante pour chaque agent, aucune réduction n’a été constatée dans la responsabilité de l’entreprise.
Ces résultats suggèrent que la perception mentale de l’IA est un facteur essentiel contribuant à l’attribution du blâme pour les transgressions impliquant l’IA. De plus, Joo s’inquiète des conséquences potentiellement néfastes d’une mauvaise utilisation des IA comme boucs émissaires et appelle à des recherches plus approfondies sur l’attribution des responsabilités à l’IA.
L'auteur ajoute : « Les IA peuvent-elles être tenues responsables de transgressions morales ? Cette recherche montre que la perception de l'IA comme étant de type humain augmente le blâme envers l'IA tout en réduisant le blâme sur les parties prenantes humaines, soulevant des inquiétudes quant à l'utilisation de l'IA comme bouc émissaire moral. »