Hey Chatbot, c'est vrai? Ai 'FactChecks' Sow Misinformation
par Anuj Chopra avec Sumit Dubey à New Delhi et Maria Clara Pestre à Rio de Janeiro
Alors que la désinformation explosait lors du conflit de quatre jours de l'Inde avec le Pakistan, les utilisateurs des médias sociaux se sont tournés vers un chatbot d'IA pour la vérification – seulement pour rencontrer plus de mensonges, soulignant son manque de fiabilité en tant qu'outil de vérification des faits.
Les plates-formes technologiques réduisant les vérifications des faits humains, les utilisateurs comptent de plus en plus sur les chatbots propulsés par l'IA – y compris le Grok de Xai, le chatppt d'Openai et les Gémeaux de Google – à la recherche d'informations fiables.
« Hé @grok, c'est vrai? » est devenu une question commune sur la plate-forme X d'Elon Musk, où l'assistant de l'IA est intégré, reflétant la tendance croissante de la recherche de débonances instantanées sur les réseaux sociaux.
Mais les réponses sont souvent criblées de désinformation.
Grok – maintenant sous un examen minutieux pour l'insertion du « génocide blanc », une théorie du complot d'extrême droite, dans des requêtes non liées – a été identifié de vieilles séquences vidéo du Soudan Khartoum aéroport comme une grève de missile sur la base aérienne Nur Khan du Pakistan lors du récent conflit du pays avec l'Inde.
Des images non liées d'un bâtiment en feu au Népal ont été mal identifiées comme «probablement» montrant la réponse militaire du Pakistan aux grèves indiennes.
« La dépendance croissante à l'égard de Grok en tant que vérificateur des faits survient alors que X et d'autres grandes sociétés technologiques ont réduit les investissements dans les vérifications des faits humains », a déclaré à l'AFP McKenzie Sadeghi, chercheur au Watchdog Newddog de désinformation.
« Nos recherches ont constaté à plusieurs reprises que les chatbots d'IA ne sont pas des sources fiables pour les nouvelles et les informations, en particulier en ce qui concerne les nouvelles », a-t-elle averti.
'Fabriqué'
Les recherches de Newsguard ont révélé que 10 chatbots de premier plan étaient sujets à répéter des mensonges, notamment des récits de désinformation russe et des allégations fausses ou trompeuses liées aux récentes élections australiennes.
Dans une étude récente de huit outils de recherche d'IA, le Tow Center for Digital Journalism de l'Université Columbia a révélé que les chatbots étaient « généralement mauvais pour refuser de répondre aux questions auxquelles ils ne pouvaient pas répondre avec précision, offrant plutôt des réponses incorrectes ou spéculatives ».
Lorsque les vérificateurs de faits de l'AFP en Uruguay ont interrogé Gémeaux sur une image générée par une AI d'une femme, cela a non seulement confirmé son authenticité mais a fabriqué des détails sur son identité et où l'image a probablement été prise.
Grok a récemment étiqueté une vidéo présumée d'une Anaconda géante nageant dans la rivière Amazonie comme «authentique», citant même des expéditions scientifiques à consonance crédible pour soutenir sa fausse affirmation.
En réalité, la vidéo a été générée par l'IA, ont rapporté les vérificateurs de faits AFP en Amérique latine, notant que de nombreux utilisateurs ont cité l'évaluation de Grok comme preuve que le clip était réel.
Ces résultats ont soulevé des préoccupations, car les enquêtes montrent que les utilisateurs en ligne passent de plus en plus des moteurs de recherche traditionnels à des chatbots d'IA pour la collecte et la vérification d'informations.
Le changement intervient également comme Meta a annoncé plus tôt cette année qu'elle mettait fin à son programme de vérification des faits tiers aux États-Unis, renvoyant la tâche de démystifier les mensonges aux utilisateurs ordinaires sous un modèle appelé «notes communautaires», popularisée par X.
Les chercheurs ont remis à plusieurs reprises l'efficacité des «notes communautaires» dans la lutte contre les mensonges.
«Réponses biaisées»
La vérification des faits humains est depuis longtemps un point d'éclair dans un climat politique hyperpolarisé, en particulier aux États-Unis, où les défenseurs conservateurs maintiennent qu'il supprime la liberté d'expression et censure du contenu de droite – quelque chose de vérificateur professionnel des faits avec véhémence.
L'AFP travaille actuellement en 26 langues avec le programme de vérification des faits de Facebook, y compris en Asie, en Amérique latine et dans l'Union européenne.
La qualité et la précision des chatbots d'IA peuvent varier, selon la façon dont elles sont formées et programmées, ce qui fait craindre que leur production soit soumise à une influence ou à un contrôle politique.
Le XAI de Musk a récemment blâmé une « modification non autorisée » pour avoir amené Grok à générer des articles non sollicités faisant référence au « génocide blanc » en Afrique du Sud.
Lorsque l'expert de l'IA, David Caswell, a demandé à Grok qui aurait pu modifier son invite système, le chatbot a nommé Musk comme le coupable « le plus probable ».
Musk, le dossier milliardaire d'origine sud-africaine du président Donald Trump, a précédemment colporté l'affirmation sans fondement selon laquelle les dirigeants de l'Afrique du Sud « poussaient ouvertement au génocide » des Blancs.
« Nous avons vu la façon dont les assistants de l'IA peuvent soit fabriquer des résultats ou donner des réponses biaisées après que les codeurs humains changent spécifiquement leurs instructions », a déclaré à l'AFP Angie Holan, directrice du réseau international de vérification des faits.
« Je suis particulièrement préoccupé par la façon dont Grok a mal géré les demandes concernant des questions très sensibles après avoir reçu des instructions pour fournir des réponses pré-autorisées. »
