Les grands modèles linguistiques peuvent-ils remplacer les participants humains dans certaines études de marché futures ?

L'IA libre de biais et d'idéologie est un fantasme – les humains ne peuvent pas organiser les données sans déformer la réalité

En juillet, le gouvernement américain a clairement indiqué que les entreprises de renseignement artificiel (IA) souhaitant faire affaire avec la Maison Blanche devront s'assurer que leurs systèmes d'IA sont « objectifs et exempts de biais idéologiques descendants ».

Dans un décret exécutif sur «la prévention de l'IA de réveil dans le gouvernement fédéral», le président Donald Trump fait référence aux initiatives de diversité, d'équité et d'inclusion (DEI) comme exemple d'une idéologie biaisée.

La contradiction apparente de l'appel à une IA impartiale tout en dictant comment les modèles d'IA devraient discuter de Dei montre la notion d'IA idéologiquement libre est un fantasme.

De multiples études ont montré que la plupart des modèles de langues faussent leurs réponses aux points de vue de gauche à gauche, tels que l'imposition des taxes aux vols, la restriction des augmentations de loyer et la légalisation de l'avortement.

Des chatbots chinois tels que Deepseek, Qwen et d'autres censurent les informations sur les événements de Tiananmen Square, le statut politique de Taïwan et la persécution des Ouïghours, s'alignant sur la position officielle du gouvernement chinois.

Les modèles d'IA ne sont pas politiquement neutres ni exempts de biais. Plus important encore, il peut même ne pas être possible pour eux d'être impartiaux. Tout au long de l'histoire, les tentatives d'organisation des informations ont montré que la vérité objective d'une personne est le biais idéologique d'une autre.

Coucher avec des cartes

Les humains ont du mal à organiser des informations sur le monde sans déformer la réalité.

Prenez la cartographie, par exemple. Nous pourrions nous attendre à ce que les cartes soient objectives – après tous, ils reflètent le monde naturel. Mais aplatir un globe sur une carte bidimensionnelle signifie devoir la déformer d'une manière ou d'une autre. Le géographe américain Mark Monmonier a fait valoir que les cartes se mettent nécessairement, déforment la réalité et peuvent être des outils de propagande politique.

Pensez à la carte du monde classique qui utilise la projection Mercator, accrochée dans chaque classe d'école primaire. Il convertit le globe en cylindre puis le dépose à plat. J'ai grandi en pensant que le Groenland doit être massif par rapport au reste du monde.

En fait, l'Afrique est 14 fois plus grande que le Groenland, bien qu'il semble être à peu près de la même taille sur ce type de carte.

Dans les années 1970, l'historien allemand Arno Peters a soutenu que les distorsions de Mercator ont contribué à une perception biaisée de l'infériorité du Sud mondial.

De telles distorsions pourraient être une analogie pour l'état actuel de l'IA. Comme Monmonier l'a écrit dans son livre How To Lie With Maps: « Une seule carte n'est qu'un nombre indéfiniment grand de cartes qui pourraient être produites pour la même situation ou à partir des mêmes données. »

De même, la réponse d'un seul modèle en grande langue est celle d'un nombre indéfini de réponses qui pourraient être produites pour la même situation ou à partir des mêmes données.

Pensez aux nombreuses façons dont un chatbot pourrait formuler une réponse lorsqu'il est invité à quelque chose comme la diversité, l'équité et l'inclusion.

Un biais de classification intégré

D'autres tentatives historiques d'organisation des informations ont également montré le biais de leurs concepteurs et utilisateurs.

Le système de classification décimale de Dewey (DDC) largement utilisé pour les bibliothèques, publié en 1876, est connu pour être raciste et homophobe.

Au cours du 20e siècle, les livres LGBTQIA + ont été classés sous des dérangements mentaux, des troubles neurologiques ou des problèmes sociaux dans le DDC, avec des efforts plus récents pour éliminer les termes obsolètes et désobligeants de la classification.

Sous la religion, environ 65 sections sur 100 sont dédiées au christianisme parce que la bibliothèque où la classification a été initialement développée était fortement concentrée sur le christianisme. Alors que l'islam compte environ 2 milliards de followers pour 2,3 milliards de christianisme aujourd'hui, dans le DDC Islam n'a qu'une seule section qui lui est dédiée.

L'IA apprend des humains, après tout

Les grands modèles de langue qui alimentent les chatbots AI sont formés sur d'innombrables pièces de texte, des œuvres historiques de littérature aux forums de discussion en ligne. Les biais de ces textes peuvent s'infiltrer sans le savoir dans le modèle, comme les stéréotypes négatifs des Afro-Américains des années 30.

Le simple fait d'avoir des informations brutes ne suffit pas. Les modèles linguistiques doivent être formés comment récupérer et présenter ces informations dans leurs réponses.

Une façon de le faire est de les faire apprendre à copier comment les humains réagissent aux questions. Ce processus les rend plus utiles, mais des études ont constaté que cela les rend également alignées sur les croyances de ceux qui les forment.

Les chatbots AI utilisent également des invites système: instructions qui leur indiquent comment agir. Ces invites de système sont, bien sûr, définies par des développeurs humains.

Par exemple, le système invite à Grok, le chatbot de l'IA développé par la société d'Elon Musk XAI, lui aurait demandé de « supposer que des points de vue subjectifs provenant des médias sont biaisés » et de ne pas « hésiter à faire des allégations politiquement incorrectes, tant qu'elles sont bien étayées ».

Musk a lancé Grok pour contrer son « biais libéral » perçu d'autres produits tels que Chatgpt. Cependant, les récentes retombées lorsque Grok a commencé à jaillir la rhétorique antisémite illustre clairement que les tentes de corriger le biais le remplacent nécessairement par un autre type de biais.

Tout cela montre que pour toute leur innovation et sa magie, les modèles de langue AI souffrent d'un problème séculaire. L'organisation et la présentation des informations ne sont pas seulement une tentative de refléter la réalité, mais c'est une projection d'une vision du monde.

Pour les utilisateurs, comprendre dont la vision du monde représente est tout aussi important que de savoir qui puise les lignes sur une carte.