Une solution simple n’est peut-être pas réalisable

Une solution simple n’est peut-être pas réalisable

Avec la prolifération de la désinformation et de la désinformation en ligne, nombreux sont ceux qui souhaitent disposer d'un système de détection simple, fiable et automatisé des « fausses nouvelles » pour identifier facilement les mensonges des vérités. Souvent avec l’aide de l’apprentissage automatique, de nombreux scientifiques ont développé de tels outils, mais les experts conseillent de faire preuve de prudence lors de leur déploiement.

Dans une nouvelle recherche, Dorit Nevo, Ph.D., professeur à la Lally School of Management, de l'Institut polytechnique Rensselaer, et ses collègues ont exploré les erreurs commises par ces outils de détection. Ils ont constaté que les biais et la généralisabilité constituent des défis en raison de la formation et de la conception des modèles, ainsi que de l'imprévisibilité du contenu des actualités. Les défis suscitent des préoccupations éthiques.

Nevo a été rejoint dans la recherche par Benjamin D. Horne, Ph.D., professeur adjoint en science et ingénierie des données à la School of Information Sciences de l'Université du Tennessee, et Susan L. Smith, Ph.D., maître de conférences en sciences cognitives. La science à Rensselaer.

L'ouvrage est publié dans la revue Comportement et technologie de l'information.

« Les modèles sont classés en fonction de mesures de performances et seules les recherches sur le modèle le plus performant sont publiées », expliquent les auteurs. « Ce format sacrifie la rigueur empirique et ne prend pas en compte le contexte de déploiement. » Par exemple, un modèle peut considérer une source comme fiable, ou vraie, alors que la source peut en fait publier un mélange de nouvelles vraies et fausses, selon le sujet.

En plus de cela, un ensemble d’étiquettes appelé vérité terrain est utilisé pour former et évaluer les modèles, et les personnes qui génèrent les étiquettes peuvent ne pas savoir elles-mêmes si une nouvelle est réelle ou fausse.

Ensemble, ces éléments peuvent perpétuer les préjugés.

« Un consommateur peut considérer un contenu comme biaisé alors qu'un autre peut le considérer comme vrai », a déclaré Nevo.  » De la même manière, un modèle peut signaler un contenu comme peu fiable, et un autre non. Un développeur peut considérer un modèle comme le meilleur, mais un autre développeur peut ne pas être d'accord. Nous pensons qu'une compréhension claire de ces problèmes doit être atteinte avant qu'un modèle puisse être considéré comme digne de confiance. « 

L’équipe de recherche a analysé 140 000 articles de presse sur un mois en 2021 et a examiné les problèmes liés à la modération automatisée du contenu. Ils sont parvenus à trois conclusions principales. Premièrement, il est important de savoir qui choisit la vérité terrain. Deuxièmement, l’opérationnalisation des tâches pour l’automatisation peut perpétuer les préjugés. Troisièmement, ignorer ou simplifier le contexte d’application réduit la validité de la recherche.

« Il est essentiel d'employer des développeurs diversifiés pour déterminer la vérité sur le terrain », a déclaré Horne. « Nous devrions non seulement employer des programmeurs et des analystes de données pour cette tâche, mais également des experts dans d'autres domaines ainsi que des membres du grand public. »

Smith ajoute : « Les modèles ont des implications sociétales, économiques et éthiques de grande envergure qui ne peuvent être comprises par un seul domaine. »

De plus, le modèle doit être continuellement réévalué. Au fil du temps, les modèles peuvent ne pas fonctionner comme prévu et la vérité terrain peut devenir incertaine. À mesure que les anomalies augmentent, les experts doivent explorer de nouvelles approches pour établir la vérité sur le terrain. De même, les méthodes permettant d’établir la vérité terrain évolueront à mesure que la science progresse, tout comme nos modèles.

Enfin, nous devons comprendre les graves implications qu’aurait une détection inexacte des fausses nouvelles et considérer qu’un modèle unique ne constituera peut-être jamais une solution universelle. Peut-être que l'éducation aux médias combinée aux suggestions d'un modèle offrirait le plus de fiabilité, ou qu'un modèle devrait être appliqué à un seul sujet d'actualité plutôt qu'à tout.

« En combinant des solutions faibles et limitées, nous pourrons peut-être créer des solutions solides, robustes, équitables et sûres », concluent les chercheurs.

« À ce stade de l'histoire, avec la propagation effrénée de la désinformation et la polarisation de la société, les enjeux ne pourraient pas être plus élevés pour développer des outils précis permettant de détecter les fausses nouvelles. De toute évidence, nous devons procéder avec prudence, inclusivité, réflexion et transparence », a déclaré Chanaka Edirisinghe, Ph.D., doyen par intérim de la Lally School of Management de Rensselaer.