j'ai fini par glisser des erreurs et des références qui ne correspondaient pas
L’intelligence artificielle est devenue un outil quotidien pour des millions de personnes. Aujourd'hui, beaucoup l'utilisent pour rédiger des e-mails, résumer des documents ou traduire des textes en quelques secondes. Cependant, cette vitesse a un côté moins visible : les systèmes génératifs peuvent aussi commettre des erreurs, inventer des données ou modifier des sources sans que l’utilisateur ne s’en aperçoive immédiatement. Lorsque ces erreurs apparaissent dans l’une des plus grandes encyclopédies du monde, la situation change complètement. C’est précisément ce qui s’est passé sur Wikipédia avec une série de traductions réalisées à l’aide de l’IA.
L'épisode d'ouverture. Tout a commencé au sein même de la communauté Wikipédia. Certains éditeurs ont commencé à réviser les traductions récentes et ont remarqué quelque chose d'étrange : certains textes contenaient des phrases qui n'apparaissaient pas dans les sources citées ou des références qui ne semblaient pas correspondre à ce que disait l'article. Selon 404 Media, ces traductions faisaient partie d'un projet promu par une organisation qui cherchait à étendre la présence du contenu Wikipédia dans différentes langues en utilisant des modèles linguistiques pour accélérer le processus.
Quand la traduction invente. À mesure que les éditeurs commençaient à examiner ces traductions plus en détail, les problèmes devenaient plus évidents. L'un des cas cités par 404 Media est celui d'un projet d'article sur la famille royale française La Bourdonnaye. Le texte traduit comprenait une référence à un livre et une page spécifique pour expliquer l'origine de la famille. Cependant, lorsque le rédacteur en chef Ilyas Lebleu, connu sur Wikipédia sous le nom de Chaotic Enby, a examiné cette source, il a découvert que la page citée était incorrecte. Lebleu a ajouté qu'en effectuant une révision rapide de plusieurs traductions, il a également trouvé des références échangées, des phrases sans source et des cas dans lesquels des paragraphes ont été ajoutés sur la base de documents sans rapport avec ce qui était écrit.
Il a été publié ou est resté à l’état de projet. L’affaire soulevait également une question pertinente : si ces erreurs étaient apparues dans des articles déjà publiés ou si elles avaient été détectées lors du processus de révision. Au moins un des exemples problématiques a été identifié dans un projet de traduction, permettant aux éditeurs de le réviser avant qu'il ne soit finalisé. Cependant, avec le matériel fourni ici, il est impossible de dire combien de traductions problématiques ont été publiées et combien sont restées en cours de révision.

Qui se cache derrière ces traductions. Le nom de l'Open Knowledge Association (OKA) apparaît ici, une organisation à but non lucratif qui prétend travailler à l'amélioration de Wikipédia et d'autres plateformes ouvertes. Comme l'organisation l'explique elle-même sur son site Internet, son modèle consiste à offrir des allocations mensuelles aux collaborateurs et traducteurs qui travaillent à plein temps à développer le contenu de l'encyclopédie, et à « profiter de l'IA (grands modèles linguistiques) pour automatiser la majeure partie du travail ». Selon 404 Media, les rédacteurs qui ont enquêté sur le projet ont conclu qu'il faisait appel à des entrepreneurs.
La réponse des éditeurs. À mesure que des exemples plus problématiques apparaissaient, la communauté Wikipédia a décidé d’intervenir. Les éditeurs ont passé en revue le fonctionnement du projet de traduction et ont fini par établir de nouvelles restrictions pour ceux qui y ont participé. Les traducteurs liés à OKA qui cumulent quatre avertissements pour contenu invérifiable sur une période de six mois peuvent être bloqués sans préavis si un nouveau cas apparaît. De plus, le contenu ajouté par un traducteur qui finit par être bloqué peut être supprimé de manière préventive, à moins qu'un autre éditeur réputé ne prenne la responsabilité de le réviser.

OKA explique. L'organisation mentionnée dans le débat a également proposé sa version des événements. Jonathan Zimmermann, fondateur et président de l'Open Knowledge Association, a expliqué aux médias susmentionnés que les traducteurs du projet travaillent sur une base horaire et qu'il n'y a pas d'objectif fixe d'articles par semaine. En outre, il a admis que « des erreurs se produisent », tout en affirmant que le système inclut une vérification humaine et un examen des sources. Suite à la discussion sur Wikipédia, a-t-il ajouté, l'organisation introduit une deuxième évaluation avec un autre modèle d'IA pour détecter d'éventuelles erreurs avant la publication, et étudie la possibilité d'ajouter des mécanismes d'évaluation par les pairs si nécessaire.
Images | Oberon Copeland @veryinformed.com | Luc Chesser
À Simseo | Sam Altman se dit terrifié par un monde dans lequel les entreprises d'IA se croient plus puissantes que le gouvernement. C'est juste ce que tu construis
