Un journaliste du Wyoming surpris en train d'utiliser l'intelligence artificielle pour créer de fausses citations et histoires

Un journaliste du Wyoming surpris en train d'utiliser l'intelligence artificielle pour créer de fausses citations et histoires

Les premières citations du gouverneur du Wyoming et d'un procureur local ont semblé un peu bizarres au journaliste du Powell Tribune CJ Baker. Ensuite, ce sont certaines phrases des articles qui lui ont semblé presque robotiques.

Mais la preuve évidente qu'un journaliste d'un média concurrent utilisait l'intelligence artificielle générative pour l'aider à écrire ses articles est apparue dans un article du 26 juin sur le comédien Larry the Cable Guy qui avait été choisi comme grand maréchal du défilé du Cody Stampede.

« Le défilé Cody Stampede 2024 promet d'être une célébration inoubliable de l'indépendance américaine, menée par l'une des figures les plus appréciées de l'humour », a rapporté le Cody Enterprise. « Cette structure garantit que les informations les plus importantes sont présentées en premier, ce qui permet aux lecteurs de saisir plus facilement et rapidement les points principaux. »

Après avoir fait quelques recherches, Baker, qui est journaliste depuis plus de 15 ans, a rencontré Aaron Pelczar, un homme de 40 ans qui était nouveau dans le journalisme et qui, selon Baker, a admis avoir utilisé l'IA dans ses reportages avant de démissionner de l'Enterprise.

L'éditeur et rédacteur en chef du journal Enterprise, cofondé en 1899 par Buffalo Bill Cody, s'est depuis excusé et a promis de prendre des mesures pour que cela ne se reproduise plus. Dans un éditorial publié lundi, le rédacteur en chef de l'Enterprise, Chris Bacon, a déclaré qu'il n'avait « pas réussi à détecter » le texte de l'IA et les fausses citations.

« Peu importe que les fausses citations soient l'erreur apparente d'un journaliste débutant pressé qui a fait confiance à l'IA. C'était mon travail », a écrit Bacon. Il s'est excusé du fait que « l'IA ait été autorisée à insérer des mots qui n'ont jamais été prononcés dans des articles ».

Les journalistes ont déjà fait dérailler leur carrière en inventant des citations ou des faits dans leurs articles bien avant l’apparition de l’IA. Mais ce dernier scandale illustre les pièges et les dangers potentiels que l’IA représente pour de nombreux secteurs, y compris le journalisme, car les chatbots peuvent produire des articles fallacieux, même s’ils sont quelque peu plausibles, avec seulement quelques indications.

L’IA a trouvé un rôle dans le journalisme, notamment dans l’automatisation de certaines tâches. Certaines rédactions, dont l’Associated Press, utilisent l’IA pour libérer les journalistes et leur permettre de se consacrer à des tâches plus importantes, mais la plupart des collaborateurs de l’AP ne sont pas autorisés à utiliser l’IA générative pour créer du contenu publiable.

L'AP utilise la technologie pour rédiger des articles sur les résultats financiers depuis 2014, et plus récemment pour certains articles sur le sport. Elle expérimente également un outil d'intelligence artificielle pour traduire certains articles de l'anglais vers l'espagnol. À la fin de chaque article, une note explique le rôle de la technologie dans sa production.

Il s’est avéré important de faire preuve de transparence sur la manière et le moment d’utiliser l’IA. Sports Illustrated a été critiqué l’année dernière pour avoir publié des critiques de produits en ligne générées par l’IA, présentées comme ayant été écrites par des journalistes qui n’existaient pas réellement. Après la publication de l’histoire, Sports Illustrated a annoncé qu’il licenciait l’entreprise qui avait produit les articles pour son site Web, mais l’incident a porté atteinte à la réputation de cette publication autrefois puissante.

Dans son article du Powell Tribune annonçant l'utilisation de l'IA par Pelczar dans ses articles, Baker a écrit qu'il avait eu une réunion inconfortable mais cordiale avec Pelczar et Bacon. Au cours de la réunion, Pelczar a déclaré : « De toute évidence, je n'ai jamais intentionnellement essayé de mal citer qui que ce soit » et a promis de « les corriger, de présenter des excuses et de dire qu'il s'agit d'inexactitudes », a écrit Baker, notant que Pelczar avait insisté sur le fait que ses erreurs ne devaient pas rejaillir sur les rédacteurs en chef de Cody Enterprise.

Après la réunion, l'Enterprise a lancé une analyse complète de tous les articles que Pelczar avait écrits pour le journal au cours des deux mois où il y avait travaillé. Ils ont découvert sept articles qui comprenaient des citations générées par l'IA de six personnes, a déclaré Bacon mardi. Il est toujours en train d'examiner d'autres articles.

« Ce sont des citations très crédibles », a déclaré Bacon, notant que les personnes à qui il a parlé lors de son examen des articles de Pelczar ont déclaré que les citations ressemblaient à quelque chose qu'ils diraient, mais qu'ils n'avaient jamais réellement parlé à Pelczar.

Baker a rapporté que sept personnes lui ont dit avoir été citées dans des articles écrits par Pelczar, mais ne lui ont pas parlé.

Pelczar n'a pas répondu à un message téléphonique de l'AP laissé à un numéro indiqué comme le sien, demandant à discuter de ce qui s'était passé. Bacon a déclaré que Pelczar avait refusé de discuter de l'affaire avec un autre journal du Wyoming qui l'avait contacté.

Baker, qui lit régulièrement l'Enterprise parce que c'est un concurrent, a déclaré à l'AP qu'une combinaison de phrases et de citations dans les articles de Pelczar a éveillé ses soupçons.

L'histoire de Pelczar sur une fusillade dans le parc national de Yellowstone comprenait la phrase suivante : « Cet incident nous rappelle brutalement la nature imprévisible du comportement humain, même dans les situations les plus sereines. »

Baker a déclaré que cette phrase ressemblait aux résumés de ses histoires qu'un certain chatbot semble générer, dans la mesure où elle ajoute une sorte de « leçon de vie » à la fin.

Une autre histoire, concernant une condamnation pour braconnage, comprenait des citations d'un responsable de la faune et d'un procureur qui semblaient provenir d'un communiqué de presse, a déclaré Baker. Cependant, il n'y avait pas de communiqué de presse et les agences concernées ne savaient pas d'où venaient les citations, a-t-il dit.

Deux des histoires mises en doute incluaient de fausses citations du gouverneur du Wyoming, Mark Gordon, dont son personnel n'a eu connaissance que lorsque Baker les a appelés.

« Dans un cas, (Pelczar) a écrit un article sur une nouvelle règle de l'OSHA qui comprenait une citation du gouverneur qui était entièrement inventée », a déclaré Michael Pearlman, porte-parole du gouverneur, dans un courriel. « Dans un deuxième cas, il a semblé fabriquer une partie d'une citation, puis l'a combinée avec une partie d'une citation qui était incluse dans un communiqué de presse annonçant le nouveau directeur de notre département de la chasse et de la pêche du Wyoming. »

Le texte généré par l’IA le plus évident est apparu dans l’histoire de Larry the Cable Guy qui se terminait par l’explication de la pyramide inversée, l’approche de base pour écrire un article d’actualité.

Il n’est pas difficile de créer des histoires à l’aide d’IA. Les utilisateurs pourraient saisir une déclaration de crime dans un programme d’IA et lui demander d’écrire un article sur l’affaire en incluant des citations de responsables locaux, a déclaré Alex Mahadevan, directeur d’un projet d’éducation aux médias numériques au Poynter Institute, le principal groupe de réflexion sur le journalisme.

« Ces chatbots génératifs à IA sont programmés pour vous donner une réponse, peu importe si cette réponse est complètement bidon ou non », a déclaré Mahadevan.

Megan Barton, l'éditrice de Cody Enterprise, a écrit un éditorial qualifiant l'IA de « nouvelle forme avancée de plagiat et dans le domaine des médias et de l'écriture, le plagiat est quelque chose que chaque média a dû corriger à un moment ou à un autre. C'est la partie la plus pénible du travail. Mais une entreprise prête à réparer (ou littéralement à corriger) ces erreurs est une entreprise de bonne réputation. »

Barton a écrit que le journal avait retenu la leçon, qu'il avait mis en place un système pour reconnaître les histoires générées par l'IA et qu'il « aurait des discussions plus longues sur la raison pour laquelle les histoires générées par l'IA ne sont pas acceptables ».

L'Enterprise n'avait pas de politique en matière d'IA, en partie parce qu'il semblait évident que les journalistes ne devraient pas l'utiliser pour écrire des articles, a déclaré Bacon. Poynter a un modèle à partir duquel les médias peuvent élaborer leur propre politique en matière d'IA.

Bacon prévoit d’en avoir un en place d’ici la fin de la semaine.

« Ce sera un sujet de discussion avant l'embauche », a-t-il déclaré.