Une étude explore la façon dont les gens perçoivent et déclarent leur paternité de textes générés artificiellement

Une étude explore la façon dont les gens perçoivent et déclarent leur paternité de textes générés artificiellement

Les grands modèles de langage (LLM) accélèrent radicalement la production de texte dans divers cas d’utilisation. Lorsqu’ils sont nourris avec des échantillons de notre style d’écriture individuel, ils sont même capables de produire des textes qui sonnent comme si nous les avions écrits nous-mêmes. En d’autres termes, ils agissent comme des écrivains fantômes IA créant des textes en notre nom.

Comme pour l’écriture fantôme humaine, cela soulève un certain nombre de questions sur la paternité et la propriété. Une équipe dirigée par l’experte en informatique des médias Fiona Draxler de l’Institut d’informatique de LMU a étudié ces questions autour de l’écriture fantôme de l’IA dans une étude récemment publiée dans la revue Transactions ACM sur l’interaction ordinateur-humain.

« Plutôt que d’examiner l’aspect juridique, nous avons abordé la perspective humaine », explique Draxler. « Lorsqu’un LLM s’appuie sur mon style d’écriture pour générer un texte, dans quelle mesure est-il le mien ? Ai-je l’impression de posséder le texte ? Est-ce que je prétends que j’en suis l’auteur ? »

Pour répondre à ces questions, les chercheurs et experts en interactions homme-machine ont mené une expérience dans laquelle les participants écrivaient une carte postale avec ou sans l’aide d’un modèle de langage d’IA (pseudo-) personnalisé selon leur style d’écriture. Ensuite, ils ont demandé aux sujets du test de publier la carte postale avec un formulaire de téléchargement et de fournir des informations supplémentaires sur la carte postale, notamment l’auteur et un titre.

« Plus les participants étaient impliqués dans la rédaction des cartes postales, plus ils avaient le sentiment que les cartes postales leur appartenaient », explique le professeur Albrecht Schmidt, co-auteur de l’étude et titulaire de la chaire des médias omniprésents centrés sur l’humain. Autrement dit, le sentiment d’appropriation était élevé lorsqu’ils écrivaient le texte eux-mêmes, et faible lorsque le texte de la carte postale était entièrement généré par LLM.

Cependant, la propriété perçue du texte ne correspondait pas toujours à la paternité déclarée. Il y a eu un certain nombre de cas dans lesquels les participants ont indiqué leur propre nom en tant qu’auteur de la carte postale même s’ils ne l’avaient pas écrite et n’avaient pas non plus le sentiment qu’elle ne leur appartenait pas. Cela rappelle les pratiques du ghostwriting, où l’auteur déclaré n’est pas le producteur du texte.

« Nos résultats mettent en évidence les défis que nous devons relever alors que nous nous appuyons de plus en plus sur la génération de textes par l’IA avec des LLM personnalisés dans des contextes personnels et professionnels », explique Draxler. « En particulier, lorsque l’absence de déclarations transparentes de paternité ou de signatures nous fait douter de la contribution d’une IA à l’écriture d’un texte, cela peut miner sa crédibilité et la confiance des lecteurs. Cependant, la transparence est essentielle dans une société qui doit déjà faire face à Les fausses nouvelles et les théories du complot sont largement répandues. »

À ce titre, les auteurs de l’étude appellent à des moyens simples et intuitifs de déclarer les contributions individuelles qui récompensent la divulgation des processus de génération.