Les nouveaux compagnons d'IA de Grok 4 offrent une «productivité pornographique» pour un prix

Elon Musk a raison de dire que Wikipédia est biaisé, mais son alternative à l'IA sera au mieux la même.

La société d'intelligence artificielle d'Elon Musk, xAI, est sur le point de lancer la première version bêta de Grokipedia, un nouveau projet pour rivaliser avec Wikipédia.

Grokipedia a été décrit par Musk comme une réponse à ce qu'il considère comme le « parti pris politique et idéologique » de Wikipédia. Il a promis qu'il fournirait des informations plus précises et plus riches en contexte en utilisant le chatbot de xAI, Grok, pour générer et vérifier le contenu.

A-t-il raison ? La question de savoir si Wikipédia est biaisé est débattue depuis sa création en 2001.

Le contenu de Wikipédia est écrit et maintenu par des bénévoles qui ne peuvent citer que du matériel existant déjà dans d'autres sources publiées, puisque la plateforme interdit les recherches originales. Cette règle, conçue pour garantir que les faits peuvent être vérifiés, signifie que la couverture de Wikipédia reflète inévitablement les préjugés des médias, du monde universitaire et des autres institutions dont elle s'inspire.

Cela ne se limite pas aux préjugés politiques. Par exemple, des recherches ont montré à plusieurs reprises un déséquilibre important entre les sexes parmi les rédacteurs, avec environ 80 à 90 % d’entre eux s’identifiant comme étant des hommes dans la version anglaise.

Parce que la plupart des sources secondaires utilisées par les éditeurs sont également rédigées historiquement par des hommes, Wikipédia a tendance à refléter une vision plus étroite du monde, un référentiel de connaissances masculines plutôt qu'un enregistrement équilibré des connaissances humaines.

Le problème des bénévoles

Les préjugés sur les plateformes collaboratives découlent souvent de qui participe plutôt que de politiques imposées d’en haut. La participation volontaire introduit ce que les spécialistes des sciences sociales appellent un biais d’auto-sélection : les personnes qui choisissent de contribuer ont tendance à partager des motivations, des valeurs et souvent des tendances politiques similaires.

Tout comme Wikipédia dépend de cette participation volontaire, il en va de même, par exemple, pour Community Notes, la fonction de vérification des faits sur Musk's X (anciennement Twitter). Une analyse des Community Notes, que j’ai menée avec des collègues, montre que la source externe la plus fréquemment citée – après X lui-même – est en réalité Wikipédia.

Les autres sources couramment utilisées par les auteurs de notes se concentrent principalement sur les médias centristes ou de gauche. Ils utilisent même la même liste de sources approuvées que Wikipédia – l’essentiel des critiques de Musk contre l’encyclopédie ouverte en ligne. Pourtant, personne ne reproche à Musk ce parti pris.

Wikipédia reste au moins l’une des rares plateformes à grande échelle qui reconnaît et documente ouvertement ses limites. La neutralité est inscrite comme l’un de ses cinq principes fondamentaux. Les préjugés existent, mais il en va de même pour une infrastructure conçue pour rendre ces préjugés visibles et corrigibles.

Les articles incluent souvent de multiples perspectives, documentent les controverses et consacrent même des sections aux théories du complot telles que celles entourant les attentats du 11 septembre. Les désaccords sont visibles dans les historiques de modifications et les pages de discussion, et les réclamations contestées sont signalées par des avertissements. La plateforme est imparfaite mais auto-correctrice, et elle repose sur le pluralisme et le débat ouvert.

L’IA est-elle impartiale ?

Si Wikipédia reflète les préjugés de ses éditeurs humains et de leurs sources, l’IA a le même problème avec les biais de ses données.

Les grands modèles linguistiques (LLM) tels que ceux utilisés par Grok de xAI sont formés sur d'énormes ensembles de données collectés sur Internet, notamment les médias sociaux, les livres, les articles de presse et Wikipédia lui-même. Des études ont montré que les LLM reproduisent les préjugés sexistes, politiques et raciaux existants trouvés dans leurs données de formation.

Musk a affirmé que Grok était conçu pour contrer de telles distorsions, mais Grok lui-même a été accusé de partialité. Une étude dans laquelle chacun des quatre principaux LLM a répondu à 2 500 questions sur la politique a montré que Grok est politiquement plus neutre que ses rivaux, mais a toujours un parti pris de centre-gauche (les autres penchent plus à gauche).

Si le modèle derrière Grokipedia repose sur les mêmes données et algorithmes, il est difficile de voir comment une encyclopédie basée sur l’IA pourrait éviter de reproduire les mêmes préjugés que Musk attribue à Wikipédia.

Pire encore, les LLM pourraient aggraver le problème. Ils fonctionnent de manière probabiliste, prédisant le prochain mot ou la prochaine phrase la plus probable sur la base de modèles statistiques plutôt que de délibérations entre humains. Le résultat est ce que les chercheurs appellent une illusion de consensus : une réponse faisant autorité qui cache l’incertitude ou la diversité des opinions derrière elle.

En conséquence, les LLM ont tendance à homogénéiser la diversité politique et à privilégier les points de vue majoritaires par rapport à ceux minoritaires. De tels systèmes risquent de transformer les connaissances collectives en un récit fluide mais superficiel. Lorsque les préjugés sont cachés sous une prose raffinée, les lecteurs peuvent même ne plus reconnaître qu’il existe des perspectives alternatives.

Eau de bébé/du bain

Cela dit, l’IA peut encore renforcer un projet comme Wikipédia. Les outils d’IA aident déjà la plateforme à détecter le vandalisme, à suggérer des citations et à identifier les incohérences dans les articles. Des recherches récentes mettent en évidence comment l’automatisation peut améliorer la précision si elle est utilisée de manière transparente et sous supervision humaine.

L’IA pourrait également contribuer au transfert de connaissances entre différentes éditions linguistiques et à rapprocher la communauté des éditeurs. Correctement mis en œuvre, il pourrait rendre Wikipédia plus inclusif, plus efficace et plus réactif sans compromettre sa philosophie centrée sur l’humain.

Tout comme Wikipédia peut apprendre de l’IA, la plateforme X pourrait apprendre du modèle de recherche de consensus de Wikipédia. Community Notes permet aux utilisateurs de soumettre et d'évaluer des notes sur les publications, mais sa conception limite les discussions directes entre les contributeurs.

Un autre projet de recherche auquel j'ai participé a montré que les systèmes basés sur la délibération inspirés des pages de discussion de Wikipédia améliorent la précision et la confiance entre les participants, même lorsque la délibération a lieu entre des humains et l'IA. Encourager le dialogue plutôt que le simple vote actuel pour ou contre pourrait rendre les Notes communautaires plus transparentes, pluralistes et résilientes face à la polarisation politique.

Bénéfice et motivation

Une différence plus profonde entre Wikipédia et Grokipedia réside dans leur objectif et peut-être dans leur modèle commercial. Wikipédia est géré par la Fondation Wikimedia, une organisation à but non lucratif, et la majorité de ses bénévoles sont principalement motivés par l'intérêt public. En revanche, xAI, X et Grokipedia sont des entreprises commerciales.

Même si les motivations liées au profit ne sont pas intrinsèquement contraires à l’éthique, elles peuvent fausser les incitations. Lorsque X a commencé à vendre sa vérification par chèque bleu, la crédibilité est devenue une marchandise plutôt qu'un marqueur de confiance. Si les connaissances sont monétisées de la même manière, le biais peut s’accentuer, en fonction de ce qui génère de l’engagement et des revenus.

Le véritable progrès ne consiste pas à abandonner la collaboration humaine mais à l’améliorer. Ceux qui perçoivent des préjugés dans Wikipédia, y compris Musk lui-même, pourraient apporter une plus grande contribution en encourageant les éditeurs issus de divers horizons politiques, culturels et démographiques à participer – ou en se joignant personnellement aux efforts visant à améliorer les articles existants. À une époque de plus en plus marquée par la désinformation, la transparence, la diversité et le débat ouvert restent nos meilleurs outils pour approcher la vérité.