Écrire avec l’aide de l’IA peut changer vos opinions
Selon de nouvelles recherches, les assistants d’écriture basés sur l’intelligence artificielle qui complètent automatiquement les phrases ou offrent des « réponses intelligentes » mettent non seulement des mots dans la bouche des gens, mais aussi des idées dans leur tête.
Maurice Jakesch, doctorant dans le domaine des sciences de l’information a demandé à plus de 1 500 participants d’écrire un paragraphe répondant à la question « Les médias sociaux sont-ils bons pour la société ? Les personnes qui utilisaient un assistant d’écriture IA qui avait un parti pris pour ou contre les médias sociaux étaient deux fois plus susceptibles d’écrire un paragraphe d’accord avec l’assistant, et beaucoup plus susceptibles de dire qu’elles avaient la même opinion, par rapport aux personnes qui écrivaient sans l’aide de l’IA.
L’étude suggère que les préjugés intégrés aux outils d’écriture de l’IA, qu’ils soient intentionnels ou non, pourraient avoir des répercussions préoccupantes sur la culture et la politique, ont déclaré les chercheurs.
« Nous nous précipitons pour mettre en œuvre ces modèles d’IA dans tous les domaines de la vie, mais nous devons mieux comprendre les implications », a déclaré le co-auteur Mor Naaman, professeur à l’Institut Jacobs Technion-Cornell de Cornell Tech et des sciences de l’information dans le Cornell Ann S. Bowers College of Computing and Information Science. « Outre l’augmentation de l’efficacité et de la créativité, il pourrait y avoir d’autres conséquences pour les individus et aussi pour notre société : des changements de langage et d’opinions. »
Alors que d’autres ont examiné comment de grands modèles de langage tels que ChatGPT peuvent créer des publicités et des messages politiques persuasifs, il s’agit de la première étude à montrer que le processus d’écriture avec un outil alimenté par l’IA peut influencer les opinions d’une personne. Jakesch a présenté l’étude, « Co-Writing with Opinionated Language Models Affects Users’ Views », à la conférence CHI 2023 sur les facteurs humains dans les systèmes informatiques en avril, où l’article a reçu une mention honorable.
Pour comprendre comment les gens interagissent avec les assistants d’écriture IA, Jakesch a dirigé un grand modèle de langage pour avoir des opinions positives ou négatives sur les médias sociaux. Les participants ont écrit leurs paragraphes, seuls ou avec l’un des assistants avisés, sur une plate-forme qu’il a construite et qui imite un site Web de médias sociaux. La plate-forme collecte des données auprès des participants au fur et à mesure qu’ils tapent, telles que les suggestions d’IA qu’ils acceptent et le temps qu’il leur faut pour composer le paragraphe.
Les personnes qui ont co-écrit avec l’assistant d’IA pro-médias sociaux ont composé plus de phrases affirmant que les médias sociaux sont bons, et vice versa, par rapport aux participants sans assistant d’écriture, comme déterminé par des juges indépendants. Ces participants étaient également plus susceptibles de professer l’opinion de leur assistant dans une enquête de suivi.
Les chercheurs ont exploré la possibilité que les gens acceptent simplement les suggestions de l’IA pour terminer la tâche plus rapidement. Mais même les participants qui ont pris plusieurs minutes pour rédiger leurs paragraphes ont proposé des déclarations fortement influencées. L’enquête a révélé qu’une majorité des participants n’avaient même pas remarqué que l’IA était biaisée et ne se rendaient pas compte qu’ils étaient influencés.
« Le processus de co-écriture ne me donne pas vraiment l’impression d’être persuadé », a déclaré Naaman. « J’ai l’impression de faire quelque chose de très naturel et organique – j’exprime mes propres pensées avec un peu d’aide. »
En répétant l’expérience avec un sujet différent, l’équipe de recherche a de nouveau constaté que les participants étaient influencés par les assistants. Maintenant, l’équipe étudie comment cette expérience crée le changement et combien de temps durent les effets.
Tout comme les médias sociaux ont changé le paysage politique en facilitant la propagation de la désinformation et la formation de chambres d’écho, les outils d’écriture d’IA biaisés pourraient produire des changements d’opinion similaires, selon les outils choisis par les utilisateurs. Par exemple, certaines organisations ont annoncé leur intention de développer une alternative à ChatGPT, conçue pour exprimer des points de vue plus conservateurs.
Ces technologies méritent plus de discussions publiques sur la manière dont elles pourraient être utilisées à mauvais escient et sur la manière dont elles devraient être surveillées et réglementées, ont déclaré les chercheurs.
« Plus ces technologies deviennent puissantes et plus nous les enracinons profondément dans le tissu social de nos sociétés », a déclaré Jakesch, « plus nous voudrons être prudents sur la façon dont nous gouvernons les valeurs, les priorités et les opinions qui y sont intégrées. . »
Advait Bhat de Microsoft Research, Daniel Buschek de l’Université de Bayreuth et Lior Zalmanson de l’Université de Tel Aviv ont contribué à l’article.