Les humains accepteront-ils des robots capables de mentir ? Les scientifiques découvrent que cela dépend du mensonge
L’honnêteté est la meilleure des politiques… la plupart du temps. Les normes sociales aident les humains à comprendre quand il faut dire la vérité et quand il ne faut pas le faire, pour ménager les sentiments de quelqu’un ou éviter de lui faire du mal. Mais comment ces normes s’appliquent-elles aux robots, qui travaillent de plus en plus avec les humains ? Pour comprendre si les humains peuvent accepter que les robots mentent, les scientifiques ont demandé à près de 500 participants d’évaluer et de justifier différents types de tromperies robotiques.
« Je voulais explorer une facette peu étudiée de l'éthique des robots, pour contribuer à notre compréhension de la méfiance envers les technologies émergentes et leurs développeurs », a déclaré Andres Rosero, candidat au doctorat à l'Université George Mason et auteur principal de l'étude. Frontières de la robotique et de l'IA. « Avec l’avènement de l’IA générative, j’ai pensé qu’il était important de commencer à examiner les cas possibles dans lesquels la conception anthropomorphique et les ensembles de comportements pourraient être utilisés pour manipuler les utilisateurs. »
Trois types de mensonges
Les scientifiques ont sélectionné trois scénarios reflétant des situations dans lesquelles les robots travaillent déjà (travail médical, nettoyage et vente au détail) et trois comportements de tromperie différents. Il s'agit des tromperies d'état externes, qui mentent sur le monde au-delà du robot, des tromperies d'état cachées, où la conception d'un robot cache ses capacités, et des tromperies d'état superficielles, où la conception d'un robot surestime ses capacités.
Dans le scénario de tromperie d'état externe, un robot qui travaille comme gardien pour une femme atteinte de la maladie d'Alzheimer ment en disant que son défunt mari sera bientôt à la maison. Dans le scénario de tromperie d'état caché, une femme visite une maison où un robot femme de ménage fait le ménage, sans savoir que le robot filme également. Enfin, dans le scénario de tromperie d'état superficiel, un robot qui travaille dans un magasin dans le cadre d'une étude sur les relations homme-robot se plaint faussement de ressentir de la douleur en déplaçant des meubles, ce qui pousse un humain à demander à quelqu'un d'autre de prendre la place du robot.
Quelle toile emmêlée nous tissons
Les scientifiques ont recruté 498 participants et leur ont demandé de lire l'un des scénarios, puis de répondre à un questionnaire. On leur demandait s'ils approuvaient le comportement du robot, dans quelle mesure il était trompeur, s'il pouvait être justifié et si quelqu'un d'autre était responsable de la tromperie. Ces réponses ont été codées par les chercheurs pour identifier les thèmes communs et analysées.
Les participants ont désapprouvé la plupart des tromperies cachées de l'État, le robot de ménage avec la caméra non dévoilée, qu'ils considéraient comme la plus trompeuse. S'ils considéraient que la tromperie externe de l'État et la tromperie superficielle de l'État étaient modérément trompeuses, ils désapprouvaient davantage la tromperie superficielle de l'État, où un robot prétendait ressentir de la douleur. Cela a pu être perçu comme une manipulation.
Les participants ont approuvé la plupart des tromperies externes, où le robot a menti au patient. Ils ont justifié le comportement du robot en disant qu'il protégeait le patient d'une douleur inutile, privilégiant la norme consistant à ménager les sentiments d'autrui plutôt que l'honnêteté.
Le fantôme dans la machine
Bien que les participants aient pu justifier les trois tromperies (certains ont par exemple suggéré que le robot de ménage filmait pour des raisons de sécurité), la plupart des participants ont déclaré que la tromperie cachée de l’État ne pouvait être justifiée. De même, environ la moitié des participants ayant répondu à la tromperie superficielle de l’État ont déclaré qu’elle était injustifiable. Les participants ont eu tendance à imputer la responsabilité de ces tromperies inacceptables, en particulier les tromperies cachées de l’État, aux développeurs ou aux propriétaires de robots.
« Je pense que nous devrions nous inquiéter de toute technologie capable de dissimuler la véritable nature de ses capacités, car cela pourrait conduire les utilisateurs à être manipulés par cette technologie d'une manière que l'utilisateur (et peut-être le développeur) n'a jamais prévue », a déclaré Rosero.
« Nous avons déjà vu des exemples d’entreprises qui utilisent des principes de conception Web et des chatbots d’intelligence artificielle de manière à manipuler les utilisateurs pour les amener à entreprendre une certaine action. Nous avons besoin d’une réglementation pour nous protéger de ces tromperies nuisibles. »
Les scientifiques ont toutefois averti que ces recherches devraient être étendues à des expériences qui pourraient mieux modéliser les réactions de la vie réelle, par exemple, des vidéos ou de courts jeux de rôle.
« L’avantage d’une étude transversale avec vignettes est que nous pouvons obtenir un grand nombre d’attitudes et de perceptions des participants de manière maîtrisée », explique Rosero. « Les études par vignettes fournissent des résultats de base qui peuvent être corroborés ou contestés par des expériences plus poussées. Les expériences avec des interactions homme-robot en personne ou simulées sont susceptibles de fournir un meilleur aperçu de la façon dont les humains perçoivent réellement ces comportements de tromperie des robots. »