Trouver de fausses nouvelles COVID-19 avec un chatbot informatique

À quel point sommes-nous proches d’un détecteur de fausses nouvelles IA précis ?

Dans leur quête ambitieuse visant à lutter contre les méfaits des faux contenus sur les réseaux sociaux et les sites d’information, les data scientists font preuve de créativité.

Alors qu’ils sont encore en formation, les grands modèles de langage (LLM) utilisés pour créer des chatbots comme ChatGPT sont recrutés pour détecter les fausses nouvelles. Avec une meilleure détection, les systèmes de vérification des fausses nouvelles par l’IA pourraient être en mesure d’avertir et, à terme, de contrecarrer les dommages graves causés par les deepfakes, la propagande, les théories du complot et la désinformation.

Les outils d’IA de niveau supérieur personnaliseront la détection des faux contenus et nous protégeront contre ceux-ci. Pour ce saut ultime vers l’IA centrée sur l’utilisateur, la science des données doit se tourner vers les sciences comportementales et les neurosciences.

Des travaux récents suggèrent que nous ne savons peut-être pas toujours consciemment que nous sommes confrontés à de fausses nouvelles. Les neurosciences aident à découvrir ce qui se passe inconsciemment. Les biomarqueurs tels que la fréquence cardiaque, les mouvements oculaires et l'activité cérébrale) semblent changer subtilement en réponse à du contenu faux ou réel. En d’autres termes, ces biomarqueurs peuvent être des « indices » qui indiquent si nous avons été trompés ou non.

Par exemple, lorsque les humains regardent des visages, les données de suivi oculaire montrent que nous recherchons les taux de clignement des yeux et les changements de couleur de la peau causés par le flux sanguin. Si de tels éléments ne semblent pas naturels, cela peut nous aider à décider qu’il s’agit d’un deepfake. Ces connaissances peuvent donner un avantage à l’IA : nous pouvons l’entraîner à imiter ce que recherchent les humains, entre autres choses.

La personnalisation d'un vérificateur de fausses nouvelles par IA prend forme en utilisant les résultats des données sur les mouvements des yeux humains et l'activité électrique du cerveau qui montrent quels types de faux contenus ont le plus grand impact neuronal, psychologique et émotionnel, et pour qui.

Connaissant nos intérêts spécifiques, notre personnalité et nos réactions émotionnelles, un système de vérification des faits par IA pourrait détecter et anticiper quel contenu déclencherait chez nous la réaction la plus sévère. Cela pourrait aider à déterminer quand les gens sont dupés et quel type de matériel trompe le plus facilement les gens.

Contrecarrer les préjudices

Vient ensuite la personnalisation des garanties. Pour nous protéger des méfaits des fausses nouvelles, il faut également mettre en place des systèmes capables d’intervenir – une sorte de contre-mesure numérique aux fausses nouvelles. Il existe plusieurs façons d'y parvenir, comme des étiquettes d'avertissement, des liens vers du contenu crédible validé par des experts et même en demandant aux gens d'essayer de considérer différentes perspectives lorsqu'ils lisent quelque chose.

Notre propre vérificateur personnalisé de fausses nouvelles par IA pourrait être conçu pour donner à chacun de nous l’une de ces contre-mesures afin d’annuler les dommages causés par les faux contenus en ligne.

Une telle technologie est déjà testée. Des chercheurs américains ont étudié la façon dont les gens interagissent avec un vérificateur personnalisé de fausses nouvelles publié sur les réseaux sociaux. Il a appris à réduire le nombre de messages dans un fil d’actualité à celui qu’il jugeait vrai. À titre de preuve de concept, une autre étude utilisant des publications sur les réseaux sociaux a adapté du contenu d'actualité supplémentaire à chaque publication médiatique afin d'encourager les utilisateurs à afficher des perspectives alternatives.

Détection précise des fausses nouvelles

Mais que tout cela semble impressionnant ou dystopique, avant de nous laisser emporter, il vaut peut-être la peine de se poser quelques questions fondamentales.

Une grande partie, sinon la totalité, des travaux sur les fausses nouvelles, les deepfakes, la désinformation et la mésinformation mettent en évidence le même problème auquel tout détecteur de mensonge serait confronté.

Il existe de nombreux types de détecteurs de mensonge, pas seulement le test polygraphique. Certains dépendent exclusivement de l'analyse linguistique. D'autres sont des systèmes conçus pour lire les visages des gens afin de détecter s'ils laissent échapper des micro-émotions qui trahissent qu'ils mentent. De la même manière, il existe des systèmes d’IA conçus pour détecter si un visage est authentique ou profondément faux.

Avant que la détection ne commence, nous devons tous nous mettre d’accord sur ce à quoi ressemble un mensonge si nous voulons le repérer. En fait, dans le domaine de la tromperie, les recherches montrent que cela peut être plus facile parce que vous pouvez indiquer aux gens quand mentir et quand dire la vérité. Vous disposez donc d’un moyen de connaître la vérité terrain avant d’entraîner un humain ou une machine à faire la différence, car ils disposent d’exemples sur lesquels fonder leur jugement.

Connaître la qualité d'un détecteur de mensonge expert dépend de la fréquence à laquelle il crie un mensonge lorsqu'il y en a un (coup). Mais aussi, qu'ils ne confondent pas souvent quelqu'un comme disant la vérité alors qu'il mentait en fait (manqué). Cela signifie qu'ils doivent savoir quelle est la vérité lorsqu'ils la voient (rejet correct) et ne pas accuser quelqu'un de mentir alors qu'il dit la vérité (fausse alerte). Cela fait référence à la détection de signaux, et la même logique s’applique à la détection de fausses nouvelles.

Pour qu'un système d'IA détectant les fausses nouvelles soit extrêmement précis, le nombre de réponses doit être très élevé (disons 90 %) et donc les échecs seront très faibles (disons 10 %), et les fausses alarmes doivent rester faibles (disons 10 %). %), ce qui signifie que les vraies nouvelles ne sont pas qualifiées de fausses. Si un système de vérification des faits par l’IA, ou par un humain, nous est recommandé, basé sur la détection de signaux, nous pourrons mieux comprendre à quel point il est efficace.

Il est probable qu’il y ait des cas, comme cela a été rapporté dans une enquête récente, où le contenu de l’actualité n’est pas complètement faux ou complètement vrai, mais partiellement exact. Nous le savons parce que la rapidité des cycles d’information signifie que ce qui est considéré comme exact à un moment donné peut s’avérer plus tard inexact, ou vice versa. Ainsi, un système de vérification des fausses nouvelles a du pain sur la planche.

Si nous savions à l’avance ce qui était truqué et ce qui constituait une véritable nouvelle, quelle serait la précision des biomarqueurs pour indiquer inconsciemment ce qui est quoi ? La réponse n'est pas très. L’activité neuronale est le plus souvent la même lorsque nous tombons sur des articles d’actualité réels et faux.

Lorsqu'il s'agit d'études de suivi oculaire, il convient de savoir qu'il existe différents types de données collectées à partir de techniques de suivi oculaire (par exemple, la durée pendant laquelle notre œil se fixe sur un objet, la fréquence à laquelle notre œil se déplace sur un visuel). scène).

Ainsi, selon ce qui est analysé, certaines études montrent que l’on porte plus d’attention lorsque l’on regarde de faux contenus, tandis que d’autres montrent le contraire.

Sommes-nous déjà là ?

Les systèmes de détection de fausses nouvelles par l’IA sur le marché utilisent déjà les connaissances de la science comportementale pour nous aider à signaler et à nous avertir contre les contenus de fausses nouvelles. Il ne sera donc pas difficile pour les mêmes systèmes d'IA de commencer à apparaître dans nos fils d'actualité avec des protections personnalisées pour notre profil utilisateur unique. Le problème avec tout cela est que nous avons encore beaucoup de choses à faire pour savoir ce qui fonctionne, mais aussi pour vérifier si nous le souhaitons.

Dans le pire des cas, nous considérons les fausses nouvelles comme un problème en ligne uniquement comme une excuse pour le résoudre à l’aide de l’IA. Mais les contenus faux et inexacts sont omniprésents et font l’objet de discussions hors ligne. De plus, nous ne croyons pas par défaut à toutes les fausses nouvelles, nous les utilisons parfois dans des discussions pour illustrer de mauvaises idées.

Dans le meilleur des cas, la science des données et la science du comportement sont confiantes quant à l’ampleur des divers dommages que les fausses nouvelles pourraient causer. Mais même dans ce cas, les applications de l’IA combinées à la magie scientifique pourraient encore constituer de très mauvais substituts à des solutions moins sophistiquées mais plus efficaces.