Comment l’IA peut contribuer à stopper la propagation de la désinformation
Selon une nouvelle étude de la Rady School of Management de l'Université de Californie à San Diego, les algorithmes d'apprentissage automatique surpassent considérablement le jugement humain dans la détection des mensonges lors d'interactions stratégiques à enjeux élevés.
L’étude peut avoir des implications majeures sur la propagation de la désinformation, car l’apprentissage automatique pourrait être utilisé pour renforcer les efforts visant à réduire le contenu fictif sur les principales plateformes comme YouTube, Tik-Tok et Instagram.
L'étude, qui sera publiée dans Sciences de gestion et disponible sous forme de document de travail, axé sur la capacité des participants à détecter les mensonges dans l'émission de télévision britannique populaire « Golden Balls », diffusée de 2007 à 2010. Il révèle que si les humains ont du mal à prédire le comportement trompeur des candidats, les algorithmes sont beaucoup plus performants.
« Nous constatons qu'il existe certains « signes » qui permettent de savoir quand une personne est trompeuse », a déclaré Marta Serra-Garcia, auteur principal de l'étude et professeur associé d'économie comportementale à la Rady School of Management de l'UC San Diego.
« Par exemple, si quelqu'un est plus heureux, il dit la vérité et il existe d'autres indices visuels, verbaux et vocaux que nous partageons tous en tant qu'êtres humains lorsque nous sommes honnêtes et disons la vérité. Les algorithmes fonctionnent mieux pour découvrir ces corrélations. »
Les algorithmes utilisés dans la recherche ont atteint un taux de précision impressionnant, prédisant correctement le comportement des concurrents dans 74 % des cas, contre un taux de précision de 51 à 53 % atteint par les plus de 600 humains ayant participé à l’étude.
En plus de comparer l’apprentissage automatique et les capacités humaines à détecter la tromperie, l’étude a également testé comment les algorithmes pourraient être exploités pour aider les gens à mieux distinguer ceux qui mentent et ceux qui disent la vérité.
Dans une expérience, deux groupes différents de participants à l'étude ont regardé la même série d'épisodes de « Golden Balls ». L'un des groupes a fait marquer les vidéos par l'apprentissage automatique avant de les visionner. Les signalements indiquaient que l'algorithme prédisait que le candidat mentait très probablement.
Un autre groupe a regardé la même vidéo et après l'avoir visionnée, on lui a dit que l'algorithme avait signalé la vidéo comme étant trompeuse. Les participants étaient beaucoup plus susceptibles de faire confiance aux informations fournies par l'apprentissage automatique et de mieux prédire les mensonges s'ils avaient reçu le message d'alerte avant de regarder la vidéo.
« Le timing est crucial lorsqu’il s’agit d’adopter des conseils algorithmiques », a déclaré Serra-Garcia. « Nos résultats montrent que les participants sont beaucoup plus susceptibles de s’appuyer sur des informations algorithmiques lorsque celles-ci sont présentées au début du processus de prise de décision. Cela est particulièrement important pour les plateformes en ligne comme YouTube et TikTok, qui peuvent utiliser des algorithmes pour signaler des contenus potentiellement trompeurs. »
Uri Gneezy, co-auteur et professeur d'économie comportementale à la Rady School, a ajouté : « Notre étude suggère que ces plateformes en ligne pourraient améliorer l'efficacité de leurs systèmes de signalement en présentant des avertissements algorithmiques avant que les utilisateurs n'interagissent avec le contenu, plutôt qu'après, ce qui pourrait conduire à une diffusion moins rapide de la désinformation. »
Certains de ces sites de réseaux sociaux utilisent déjà des algorithmes pour détecter les contenus suspects, mais dans de nombreux cas, une vidéo doit être signalée par un utilisateur, puis examinée par le personnel qui peut signaler le contenu ou le supprimer. Ces processus peuvent être longs, car les employés des entreprises technologiques comme TikTok sont surchargés d'enquêtes.
Les auteurs concluent : « Notre étude montre comment la technologie peut améliorer la prise de décision humaine et constitue un exemple de la manière dont les humains peuvent interagir avec l'IA lorsque celle-ci peut être utile. Nous espérons que les résultats pourront aider les organisations et les plateformes à mieux concevoir et déployer des outils d'apprentissage automatique, en particulier dans les situations où une prise de décision précise est essentielle. »