Le programme pilote intègre les notes générées par l'IA avec les notes de la communauté humaine sur la plate-forme X
X (anciennement Twitter) a lancé son programme « Community Notes » en 2021 pour lutter contre la désinformation en permettant aux utilisateurs d'ajouter des notes contextuelles sur des publications qui pourraient être trompeuses ou conduire à une mauvaise interprétation. Un exemple serait que les utilisateurs étiqueter une vidéo générée par l'AI-AI en tant que tel, afin que d'autres utilisateurs ne soient pas amenés à croire que l'événement dans la vidéo s'est réellement produit. Les notes de la communauté sont évaluées par la communauté des médias sociaux décentralisés pour déterminer leur utilité. Seules les notes déterminées utiles par les évaluateurs sont indiquées sur le poteau. Les notes communautaires de X ont ensuite inspiré d'autres plateformes pour lancer des programmes similaires.
Jusqu'à ce point, ces systèmes communautaires de vérification des faits étaient entièrement constitués de notes générées par l'homme et des évaluateurs humains. Cependant, X pilote maintenant un nouveau programme, permettant une IA – sous la forme de grands modèles d'apprentissage (LLM) – pour générer des notes communautaires aux côtés des humains.
Le modèle proposé, publié récemment par X chercheurs, intègre à la fois les notes humaines et AI dans le pipeline, mais permet toujours aux humains de déterminer quelles notes sont utiles. À une époque de désinformation rampante, les chercheurs pensent que la vitesse et l'échelle des notes générées par les LLM sont nécessaires. Ils écrivent: « permettant la création de notes automatisées permettrait au système de fonctionner à une échelle et à une vitesse impossible pour les écrivains humains, offrant potentiellement le contexte pour les ordres de grandeur plus de contenu sur le Web. »
La génération de notes LLM sera encore améliorée en apprenant des commentaires de la communauté dans un processus appelé apprentissage du renforcement des commentaires de la communauté (RLCF). Ce processus est destiné à affiner la génération de notes futures grâce à un éventail diversifié de commentaires des membres de la communauté avec une variété de points de vue et devrait entraîner des notes plus précises, impartiales et utiles.

Bien que le nouveau modèle devrait améliorer globalement le processus de vérification de la désinformation, il existe certains risques potentiels. Les chercheurs notent que les problèmes potentiels avec les notes générés par l'IA sont persuasives et inexactes – un problème connu avec d'autres modèles – et un risque de notes trop homogénisantes. Il y a aussi une certaine préoccupation que les rédacteurs de notes humaines pourraient s'engager moins souvent, en raison de l'abondance de notes générées par l'AI, et que cette abondance pourrait submerger la capacité des évaluateurs humains à déterminer suffisamment ce qui est utile et ce qui ne l'est pas.
L'étude discute également de nombreuses possibilités futures impliquant une intégration encore plus d'IA dans le pipeline des notes communautaires, tout en conservant des chèques humains en place. Les orientations futures pourraient impliquer l'intégration des copilotes d'IA pour que les écrivains humains mettent des recherches et publient plus de notes plus rapidement et de l'IA-Assistance pour aider les évaluateurs humains à auditer des notes plus efficacement. Les chercheurs proposent également des méthodes de vérification et d'authentification pour le dépistage des évaluateurs et des écrivains humains, la personnalisation des LLM et des méthodes pour adapter et réappliquer des notes déjà validées à des contextes similaires, de sorte que les évaluateurs ne évaluent pas les mêmes concepts encore et encore.
Il existe un potentiel pour ces méthodes de collaboration humaine-AI, les humains fournissant des nuances et de la diversité et des LLMS fournissant la vitesse et l'échelle pour faire face à l'abondance des informations disponibles en ligne, mais il y a encore beaucoup de tests à faire pour garantir que la touche humaine ne soit pas perdue. Les auteurs de l'étude décrivent leur objectif final en disant: « L'objectif n'est pas de créer un assistant en IA qui dit aux utilisateurs quoi penser, mais de construire un écosystème qui permet aux humains de penser plus critique et de mieux comprendre le monde. »
Écrit pour vous par notre auteur Krystal Kasal, édité par Andrew Zinin – cet article est le résultat d'un travail humain minutieux. Nous comptons sur des lecteurs comme vous pour garder le journalisme scientifique indépendant en vie. Si ce rapport vous importe, veuillez considérer un don (surtout mensuel). Vous obtiendrez un sans publicité compte comme un remerciement.