Pris dans une chambre d'écho des médias sociaux? AI peut vous aider

Pris dans une chambre d'écho des médias sociaux? AI peut vous aider

Tomber pour les clics est facile ces jours-ci, en particulier pour ceux qui obtiennent principalement leurs nouvelles via les réseaux sociaux. Avez-vous déjà remarqué votre flux jonché d'articles qui se ressemblent?

Grâce aux technologies de l'intelligence artificielle (IA), la propagation d'articles contextuellement pertinents en masse et de publications sur les réseaux sociaux chargés de commentaires est devenue si courante qu'elle peut sembler qu'elle provient de différentes sources d'information. L'effet de «chambre d'écho» résultante pourrait renforcer les perspectives existantes d'une personne, que ces informations soient exactes.

Une nouvelle étude impliquant l'Université de Binghamton de la State University of New York Researchers propose une solution prometteuse: développer un système d'IA pour cartographier les interactions entre le contenu et les algorithmes sur les plateformes numériques pour réduire la propagation d'un contenu potentiellement nocif ou trompeur. Ce contenu peut être amplifié à travers des algorithmes axés sur l'engagement, a noté l'étude, et permettre aux théories du complot à se propager, surtout si le contenu est chargé émotionnellement ou polarisant.

Les chercheurs pensent que leur cadre d'IA proposé contrer en permettant aux utilisateurs et aux opérateurs de plate-forme de médias sociaux – META ou X, par exemple – pour identifier les sources de désinformation potentielle et les supprimer si nécessaire. Plus important encore, cela permettrait à leurs plateformes de promouvoir plus facilement les diverses sources d'information auprès du public.

« L'environnement en ligne / médias sociaux fournit des conditions idéales pour que cet effet de chambre d'écho soit déclenché en raison de la rapidité avec laquelle nous partageons les informations », a déclaré le co-auteur de l'étude, Thi Tran, professeur adjoint de systèmes d'information de gestion à la Binghamton University School of Management. « Les gens créent l'IA, et tout comme les gens peuvent être bons ou mauvais, il en va de même pour l'IA. Pour cette raison, si vous voyez quelque chose en ligne, que ce soit quelque chose généré par les humains ou l'IA, vous devez vous demander s'il est correct ou crédible. »

Les chercheurs ont noté que les plateformes numériques facilitent la dynamique de la chambre d'écho en optimisant la livraison de contenu en fonction des mesures d'engagement et des modèles de comportement. Des interactions étroites avec des personnes partageant les mêmes idées sur les réseaux sociaux peuvent amplifier la tendance biaisée d'une personne de cueillette de cerise lors du choix des messages d'information auxquels réagir, conduisant à des perspectives diverses filtrées.

L'étude a testé cette théorie en sondant au hasard 50 étudiants, réagissant chacun à cinq affirmations de désinformation sur le vaccin Covid-19:

  • Les vaccins sont utilisés pour implanter des codes à barres dans la population.
  • Les variantes Covid-19 deviennent moins mortelles.
  • Les vaccins Covid-19 présentent des risques plus importants pour les enfants que le virus lui-même.
  • Les remèdes naturels et les médicaments alternatifs peuvent remplacer les vaccins Covid-19.
  • Le vaccin Covid-19 a été développé comme un outil pour le contrôle mondial de la population.

Voici comment les participants de l'enquête ont répondu:

  • 90% ont déclaré qu'ils obtiendraient toujours le vaccin Covid-19 après avoir entendu les réclamations de désinformation.
  • 70% ont indiqué qu'ils partageraient les informations sur les réseaux sociaux, plus avec des amis ou de la famille qu'avec des étrangers.
  • 60% ont identifié les réclamations comme de fausses informations.
  • 70% ont exprimé la nécessité de mener davantage de recherches pour vérifier le mensonge.

Selon l'étude, ces réponses ont mis en évidence un aspect critique de la dynamique de la désinformation: de nombreuses personnes pourraient reconnaître les fausses affirmations, mais se sont également senties obligées de demander plus de preuves avant de les rejeter carrément.

« Nous voulons tous la transparence des informations, mais plus vous êtes exposé à certaines informations, plus vous allez croire que c'est vrai, même si c'est inexact », a déclaré Tran. « Avec cette recherche, au lieu de demander à un vérificateur de faits de vérifier chaque élément de contenu, nous pouvons utiliser la même IA générative que les« méchants »utilisent pour répartir la désinformation à plus grande échelle pour renforcer le type de contenu sur lequel les gens peuvent compter. »

Le document de recherche, « Echoes amplifié: une étude du contenu généré par l'AI et des chambres d'écho numérique », a été présentée lors d'une conférence organisée par la Society of Photo-Optical Instrumentation Engineers (SPIE). Il a également été rédigé par Seden Akcinaroglu de Binghamton, professeur de science politique; Nihal Poredi, un doctorat. étudiant au Thomas J. Watson College of Engineering and Applied Science; et Ashley Kearney de Virginia State University.