Wikipédia veut être le dernier bastion d’un internet 100% humain
La version anglaise de Wikipédia vient d’interdire les articles réalisés avec l’IA. Dans la dernière mise à jour de leurs directives, ils sont clairs : le contenu généré avec des modèles de langage viole les politiques de contenu. La plus grande encyclopédie sur Internet se positionne comme un refuge pour les contenus créés par les humains.
Pas d’IA, merci. Le débat « IA oui ou IA non » génère des tensions sur Wikipédia depuis un certain temps et ils ont finalement décidé de soutenir le contenu humain avec une écrasante majorité de 40 voix contre 2. La nouvelle restriction imposée se lit comme suit : « Le texte généré par de grands modèles de langage (…) viole souvent plusieurs des politiques fondamentales de contenu de Wikipédia. Les politiques fondamentales auxquelles il fait référence sont la neutralité du contenu, la vérifiabilité et le fait que le contenu ne peut pas être une recherche originale, mais doit être attribué à des sources fiables. Avec ce changement, il est interdit aux éditeurs d’utiliser LLM « pour générer ou réécrire le contenu d’un article ».
Deux exceptions. Wikipédia envisage deux scénarios dans lesquels l’utilisation de l’IA est autorisée :
- Suggestions et corrections de style de base, à condition que le LLM n’introduise pas son propre contenu. Ils préviennent qu’il doit être utilisé avec prudence puisque les LLM ont tendance à « aller au-delà de ce qui leur est demandé et à modifier le sens du texte ».
- Traduction d’articles dans d’autres langues, à condition qu’ils soient révisés par une personne compétente dans les deux langues concernées. Il est important de noter ici que Wikipédia a déjà connu des drames dans le passé à cause des traductions IA.
Pourquoi c’est important. Wikipédia s’est positionné comme un réservoir de contenu véritablement humain sur un Internet inondé de contenu artificiel. À une époque où distinguer l’authentique du synthétique est de plus en plus difficile, la plus grande encyclopédie du monde choisit de s’appuyer sur la paternité humaine comme garantie de fiabilité. Il y a quelque chose d’ironique, c’est que Wikipédia rejette l’IA, mais l’IA continue de s’abreuver de Wikipédia pour apporter des réponses, ce qui lui fait perdre des clics et sature ses serveurs.
IA générée par rapport à la création humaine. Jusqu’à récemment, nous pensions que la solution consistait à marquer le contenu artificiel sur les plateformes avec l’étiquette classique « IA », mais nous sommes maintenant à un point où il est plus précieux et plus utile de souligner le contraire : qu’il est créé par des humains. L’avancée des outils de génération d’images et la quantité de textes réalisés avec l’IA sont écrasantes, au point qu’un courant anti-IA émerge ; Certains artistes commencent à « mal » concevoir pour se différencier de l’homogénéisation de l’IA, ils ont créé des extensions pour revenir sur internet avant ChatGPT, il existe des navigateurs qui filtrent les résultats de l’IA et même le badge ‘Not by AI’ a été créé. Le fait est que c’est un David contre Goliath.
Le cas Etsy. Il s’agit peut-être de l’un des cas les plus sanglants d’inondation de contenus d’IA de mauvaise qualité. La plateforme qui était présentée comme un refuge de l’authentique est aujourd’hui une brocante d’IA qui tente aussi de se faire passer pour artisanale. Des portraits à la Ghibli pour 20 euros, des profils entièrement gérés par l’IA qui disent des choses comme « J’ai hâte de te dessiner »… Etsy autorise les contenus réalisés avec l’IA, mais dit qu’il faut les étiqueter comme tels. Personne ne le fait. Preuve que l’étiquette ne sert plus à rien.
Un détail clé. Le dernier paragraphe des directives de Wikipédia est particulièrement frappant car il parle de sanctions possibles pour ceux qui enfreignent la règle. Le problème est de savoir comment ils envisagent de détecter qui utilise l’IA. Wikipédia admet que « certains éditeurs peuvent avoir des styles d’écriture similaires à ceux des grands modèles linguistiques » et que « plus de preuves que de simples indices stylistiques ou linguistiques sont nécessaires pour justifier l’imposition de sanctions ». Nous n’avons aucune idée de la manière dont ils vont procéder, ce que nous savons, c’est que les détecteurs de texte IA échouent plus qu’un fusil de chasse forain.
Images | Wikipédia, édité
À Simseo | Le dernier obstacle à l’IA est le bon goût. Le problème c’est qu’une génération entière grandit sans la développer
