Wikipédia était menacé par Google depuis des années. Vous avez maintenant rencontré un problème plus important : ChatGPT
Les encyclopédies ont été pendant des siècles le domaine absolu d’un petit groupe de savants et d’experts. Eux seuls pouvaient condenser les connaissances humaines dans ces volumes imprimés, mais avec Internet et Wikipédia, tout a changé. Du coup, il était possible d’accéder à une encyclopédie ouverte à laquelle n’importe qui pouvait contribuer. Wikipédia est devenu une excellente ressource d’information -pas exempte de problèmes, oui-, mais maintenant une menace la ronge : elle s’appelle ChatGPT.
La communauté, divisée. Comme indiqué dans Vice, une récente réunion de la communauté Wikipédia a discuté de l’utilisation potentielle de modèles d’IA générative pour aider le travail des éditeurs et gestionnaires de Wikipédia. Le risque que ces textes générés par des modèles comme ChatGPT contiennent des erreurs – voire des inventions et des « hallucinations » – est élevé, et cela nécessite une surveillance humaine qui pourrait finir par donner plus de travail que de l’éviter.
ChatGPT peut être utile… gardez un œil dessus. Amy Bruckman, professeur et auteur d’un livre sur Wikipédia, a expliqué comment « le risque pour Wikipédia est que les gens finissent par baisser la qualité en publiant des choses qui n’ont pas été vérifiées. Je ne pense pas qu’il y ait quelque chose de mal à utiliser [ChatGPT] pour une première ébauche, mais chaque point doit être vérifié. »
fixer des limites. Les responsables de Wikipédia ont créé un document qui parle des grands modèles de langage (LLM, pour Large Language Model) comme ChatGPT et de son application potentielle au travail des éditeurs. Les directives de base sont de ne pas publier de contenu obtenu en demandant un LLM, bien que ces modèles puissent être utilisés comme « conseillers » dans la rédaction. Si ces outils sont utilisés, il est nécessaire de le préciser dans le résumé d’édition de l’article concerné/édité.
Mais l’IA pourrait rendre Wikipédia encore meilleur. Bien qu’il y ait des opposants à l’utilisation de ce type de technologie, les porte-parole de la Wikimedia Foundation ont indiqué dans cet article de Vice comment l’IA représente une opportunité pour aider le travail des bénévoles de Wikipédia et les projets de Wikimedia à se développer. L’un de ces porte-parole a indiqué que « l’IA peut mieux fonctionner en complément du travail que les humains font dans notre projet ».
Meta a déjà fait sa proposition. En fait, il y a eu un autre projet lié à l’IA qui voulait aider à améliorer Wikipedia. Il a été annoncé l’été dernier par Meta, qui a développé un système d’intelligence artificielle appelé Sphere. Après l’avoir entraîné avec 4 millions d’extraits de texte Wikipédia et un grand ensemble de données, l’objectif était de pouvoir être utilisé pour vérifier les sources ou les références des articles de Wikipédia.
Citez et vérifiez, primordial. Il semble donc que Wikipédia ne s’oppose pas ou n’interdise pas l’utilisation de modèles tels que ChatGPT pour aider à améliorer la plateforme, mais il y a des suspicions et les risques sont connus. Comme l’a dit Bruckman, « le contenu ne sera aussi fiable que le nombre de personnes qui l’ont vérifié avec de solides pratiques de citation [a fuentes originales y válidas] ».