Un nouveau modèle d’apprentissage automatique peut identifier de manière plus fiable les fausses sources d’informations

Un nouveau modèle d’apprentissage automatique peut identifier de manière plus fiable les fausses sources d’informations

Les fausses nouvelles constituent un problème récurrent, mais il commence réellement à s’intensifier pendant la saison électorale, alors que les théories du complot et la désinformation émanant de mauvais acteurs visent à manipuler les électeurs. Alors que les élections américaines touchent à leur fin, dans l’une des courses les plus serrées à ce jour, des chercheurs de l’Université Ben Gourion du Néguev ont développé une méthode pour aider les vérificateurs des faits à suivre les volumes croissants de désinformation sur les réseaux sociaux.

L'équipe dirigée par le Dr Nir Grinberg et le professeur Rami Puzis a découvert que le suivi des fausses sources d'informations, plutôt que des articles ou des publications individuels, avec leur approche, peut réduire considérablement la charge des vérificateurs de faits et produire des résultats fiables au fil du temps.

« Le problème aujourd'hui avec la prolifération des fausses nouvelles est que les vérificateurs de faits sont débordés. Ils ne peuvent pas tout vérifier, mais l'étendue de leur couverture, au milieu d'un océan de contenus sur les réseaux sociaux et de signalements d'utilisateurs, n'est pas claire. De plus, nous savons peu de choses sur la façon dont Les vérificateurs de faits qui réussissent parviennent à accéder au contenu le plus important à vérifier. Cela nous a incité à développer une approche d'apprentissage automatique qui peut aider les vérificateurs de faits à mieux diriger leur attention et à augmenter leur productivité », explique le Dr Grinberg.

Leurs conclusions ont été publiées récemment dans le cadre du Actes de la 30e conférence ACM SIGKDD sur la découverte des connaissances et l'exploration de données.

Les fausses sources d’informations ont tendance à apparaître et à disparaître assez rapidement au fil des années, la tenue à jour de listes de sites est donc très coûteuse et demande beaucoup de travail. Leur système prend en compte le flux d'informations sur les réseaux sociaux et « l'appétit » du public pour les mensonges, qui localise plus de sites et est plus robuste dans le temps.

Les modèles basés sur l'audience des chercheurs ont surpassé l'approche plus courante consistant à déterminer qui partage des informations erronées par de larges marges : 33 % en examinant les données historiques et 69 % en examinant les sources au fur et à mesure qu'elles émergent au fil du temps.

Les auteurs montrent également que leur approche peut maintenir le même niveau de précision dans l’identification des sources de fausses informations tout en nécessitant moins d’un quart des coûts de vérification des faits.

Le système a besoin de plus de formation dans des scénarios du monde réel, et il ne devrait jamais remplacer les vérificateurs de faits humains, mais « il peut élargir considérablement la couverture des vérificateurs de faits d'aujourd'hui », déclare le Dr Grinberg, membre du Département d'ingénierie des logiciels et des systèmes d'information. Le professeur Puzis est membre du même département.

Et même si Grinberg et son équipe ont démontré que cette approche peut aider les vérificateurs des faits dans leur mission consistant à garantir l'intégrité de nos élections, la grande inconnue ici est de savoir si les plateformes de médias sociaux relèveront le gant ici, ou du moins, fourniront les moyens nécessaires. dans les données et l'accès pour les autres pour lutter contre la désinformation.

L'équipe de recherche de cette étude comprenait également Maor Reuben du Département d'ingénierie des logiciels et des systèmes d'information de BGU et la chercheuse indépendante Lisa Friedland.