Utiliser l’IA pour envoyer des messages à ses amis peut entraîner une moindre satisfaction et une plus grande incertitude, suggère une étude
Utiliser des applications d’intelligence artificielle pour rédiger un message à un ami n’est pas une bonne idée, du moins si votre ami découvre l’utilisation de l’IA, suggère une nouvelle étude.
Les chercheurs ont découvert que les personnes participant à l’étude percevaient qu’un ami fictif qui utilisait l’aide de l’IA pour leur écrire un message ne déployait pas autant d’efforts qu’un ami qui écrivait lui-même un message.
Cette perception peut être compréhensible, mais l’effet va au-delà du message lui-même, a déclaré Bingjie Liu, auteur principal de l’étude et professeur adjoint de communication à l’Ohio State University.
« Après avoir reçu un message assisté par l’IA, les gens se sentent moins satisfaits de leur relation avec leur ami et se sentent plus incertains quant à leur position », a déclaré Liu.
Mais pour être juste envers l’IA, ce n’est pas seulement l’utilisation de la technologie qui a rebuté les gens. L’étude a également révélé des effets négatifs lorsque les gens apprenaient que leur ami avait obtenu l’aide d’une autre personne pour rédiger un message.
« Les gens veulent que leurs partenaires ou amis fassent l’effort de proposer leur propre message sans l’aide de l’IA ou d’autres personnes », a déclaré Liu.
L’étude a été publiée en ligne récemment dans le Journal des relations sociales et personnelles.
À mesure que les chatbots IA comme ChatGPT deviennent de plus en plus populaires, les questions relatives à leur utilisation deviendront plus pertinentes et plus complexes, a déclaré Liu.
L’étude a porté sur 208 adultes ayant participé en ligne. On a dit aux participants qu’ils étaient de bons amis avec quelqu’un nommé Taylor depuis des années. Ils ont été confrontés à l’un des trois scénarios suivants : ils souffraient d’épuisement professionnel et avaient besoin de soutien, ils étaient en conflit avec un collègue et avaient besoin de conseils, ou leur anniversaire approchait.
Les participants devaient ensuite écrire un court message à Taylor décrivant leur situation actuelle dans une zone de texte sur leur écran d’ordinateur.
Tous les participants ont été informés que Taylor leur avait envoyé une réponse. Dans les scénarios, Taylor a rédigé une première ébauche. Certains participants ont été informés que Taylor avait un système d’IA qui l’aidait à réviser le message pour obtenir le ton approprié, d’autres ont été informés qu’un membre d’une communauté d’écrivains avait aidé à apporter des révisions, et un troisième groupe a été informé que Taylor avait apporté toutes les modifications au message.
Dans tous les cas, les personnes participant à l’étude ont entendu la même chose à propos de la réponse de Taylor, notamment qu’elle était « réfléchie ».
Pourtant, les participants à l’étude avaient des points de vue différents sur le message qu’ils étaient censés avoir reçu de Taylor. Ceux qui ont reçu une réponse aidé par l’IA ont jugé ce que Taylor a fait comme moins approprié et plus inapproprié que ceux qui ont reçu la réponse écrite uniquement par Taylor.
Les réponses d’IA ont également amené les participants à exprimer moins de satisfaction à l’égard de leur relation, par exemple en évaluant Taylor moins bien pour répondre à « mes besoins en tant qu’ami proche ».
De plus, les personnes participant à l’étude étaient plus incertaines quant à leur relation avec Taylor si elles recevaient la réponse assistée par l’IA, étant moins certaines quant à la déclaration « Taylor m’aime en tant qu’ami proche ».
Une raison possible pour laquelle les gens n’apprécient pas la réponse assistée par l’IA pourrait être qu’ils pensent que l’utilisation de la technologie est inappropriée et inférieure aux humains pour rédiger des messages personnels comme ceux-ci.
Mais les résultats ont montré que les gens réagissaient tout aussi négativement aux réponses dans lesquelles Taylor faisait appel à un autre humain, membre d’une communauté d’écrivains en ligne, pour l’aider à transmettre le message.
« Ce que nous avons découvert, c’est que les gens ne pensent pas qu’un ami devrait utiliser un tiers, qu’il s’agisse d’une IA ou d’un autre humain, pour les aider à entretenir leur relation », a déclaré Liu.
La raison, selon l’étude, était que les participants estimaient que Taylor dépensait moins d’efforts dans leur relation en s’appuyant sur l’IA ou sur une autre personne pour les aider à rédiger un message.
Moins les participants évaluaient les efforts de Taylor en utilisant l’IA ou une autre personne, moins ils étaient satisfaits de leur relation et plus ils ressentaient d’incertitude quant à leur amitié.
« L’effort est très important dans une relation », a déclaré Liu.
« Les gens veulent savoir combien vous êtes prêt à investir dans votre amitié et s’ils ont l’impression que vous prenez des raccourcis en utilisant l’IA pour vous aider, ce n’est pas bon. »
Bien sûr, la plupart des gens ne diront pas à un ami qu’ils ont utilisé l’IA pour rédiger un message, a déclaré Liu. Mais elle a noté qu’à mesure que ChatGPT et d’autres services deviennent plus populaires, les gens pourraient commencer à faire un test de Turing dans leur esprit en lisant les messages d’amis et d’autres personnes.
L’expression « test de Turing » est parfois utilisée pour désigner des personnes qui se demandent si elles peuvent déterminer si une action a été entreprise par un ordinateur ou par une personne.
« Il se pourrait que les gens fassent secrètement ce test de Turing dans leur esprit, en essayant de déterminer si les messages contiennent une composante d’IA », a déclaré Liu. « Cela pourrait nuire aux relations. »
La réponse est de faire votre propre travail dans les relations, a-t-elle déclaré.
« N’utilisez pas la technologie simplement parce qu’elle est pratique. La sincérité et l’authenticité comptent toujours beaucoup dans les relations. »
Liu a mené l’étude avec Jin Kang de l’Université Carleton au Canada et Lewen Wei de l’Université de Nouvelle-Galles du Sud en Australie.