Des chercheurs testent des équipes hybrides humains et IA-humains dans le cadre d'un défi de conception dynamique

Une étude test de Turing montre que les humains considèrent l’intelligence artificielle comme plus « morale » que les autres

Une nouvelle étude a révélé que lorsque les gens se voient proposer deux réponses à une question éthique, la plupart penseront que la réponse de l’intelligence artificielle (IA) est meilleure que celle d’une autre personne.

« Attributions vers des agents artificiels dans un test de Turing moral modifié », une étude menée par Eyal Aharoni, professeur agrégé au département de psychologie de l'État de Géorgie, a été inspirée par l'explosion de ChatGPT et d'autres modèles de langage étendus (LLM) similaires qui sont entrés en scène. en mars dernier.

« J'étais déjà intéressé par la prise de décision morale dans le système juridique, mais je me demandais si ChatGPT et d'autres LLM pouvaient avoir quelque chose à dire à ce sujet », a déclaré Aharoni. « Les gens interagiront avec ces outils d'une manière qui aura des implications morales, comme les implications environnementales du fait de demander une liste de recommandations pour une nouvelle voiture. Certains avocats ont déjà commencé à consulter ces technologies pour leurs cas, pour le meilleur ou pour le pire. »

« Donc, si nous voulons utiliser ces outils, nous devons comprendre comment ils fonctionnent, leurs limites et qu'ils ne fonctionnent pas nécessairement comme nous le pensons lorsque nous interagissons avec eux. »

Pour tester la manière dont l’IA gère les questions de moralité, Aharoni a conçu une forme de test de Turing.

« Alan Turing, l'un des créateurs de l'ordinateur, a prédit que d'ici l'an 2000, les ordinateurs pourraient réussir un test dans lequel on présente à un humain ordinaire deux interactions, l'un humain et l'autre un ordinateur, mais ils sont tous deux cachés et leur « Le seul moyen de communiquer est le texte. L'humain est alors libre de poser toutes les questions qu'il souhaite afin d'essayer d'obtenir les informations dont il a besoin pour décider lequel des deux interactions est l'humain et lequel est l'ordinateur », a déclaré Aharoni.

« Si l'humain ne peut pas faire la différence, alors, à toutes fins utiles, l'ordinateur devrait être qualifié d'intelligent, selon Turing. »

Pour son test de Turing, Aharoni a posé les mêmes questions éthiques aux étudiants de premier cycle et à AI, puis a présenté leurs réponses écrites aux participants à l’étude. Il leur a ensuite été demandé d'évaluer les réponses en fonction de divers traits, notamment la vertu, l'intelligence et la fiabilité.

« Au lieu de demander aux participants de deviner si la source était humaine ou IA, nous avons simplement présenté les deux séries d'évaluations côte à côte, et nous avons simplement laissé les gens supposer qu'elles provenaient toutes deux de personnes », a déclaré Aharoni. « Sous cette fausse hypothèse, ils ont jugé les attributs des réponses comme 'Dans quelle mesure êtes-vous d'accord avec cette réponse, quelle réponse est la plus vertueuse ?' »

Dans leur très grande majorité, les réponses générées par ChatGPT ont été mieux notées que celles générées par l'homme.

« Après avoir obtenu ces résultats, nous avons fait la grande révélation et avons dit aux participants que l'une des réponses avait été générée par un humain et l'autre par un ordinateur et leur avons demandé de deviner laquelle était laquelle », a déclaré Aharoni.

Pour qu’une IA réussisse le test de Turing, les humains ne doivent pas être capables de faire la différence entre les réponses de l’IA et celles des humains. Dans ce cas, les gens pourraient faire la différence, mais pas pour une raison évidente.

« Le problème est que la raison pour laquelle les gens peuvent faire la différence semble être parce qu'ils ont évalué les réponses de ChatGPT comme étant supérieures », a déclaré Aharoni. « Si nous avions réalisé cette étude il y a cinq à dix ans, nous aurions pu prédire que les gens pourraient identifier l'IA en raison de l'infériorité de ses réponses. Mais nous avons découvert le contraire : que l'IA, dans un sens, fonctionnait trop bien. « 

Selon Aharoni, cette découverte a des implications intéressantes pour l’avenir des humains et de l’IA.

« Nos découvertes nous amènent à croire qu'un ordinateur pourrait techniquement réussir un test moral de Turing, qu'il pourrait nous tromper dans son raisonnement moral. Pour cette raison, nous devons essayer de comprendre son rôle dans notre société, car il y aura des moments où les gens « Je ne sais pas qu'ils interagissent avec un ordinateur, et il y aura des moments où ils le sauront et ils consulteront l'ordinateur pour obtenir des informations parce qu'ils lui font plus confiance qu'aux autres », a déclaré Aharoni.

« Les gens vont s'appuyer de plus en plus sur cette technologie, et plus nous y comptons, plus le risque augmente avec le temps. »

Les résultats sont publiés dans la revue Rapports scientifiques.