Les réseaux sociaux sont vulnérables à une manipulation et une polarisation relativement simples

Les réseaux sociaux sont vulnérables à une manipulation et une polarisation relativement simples

Il semble que peu importe le sujet de la conversation, l’opinion en ligne autour de celle-ci sera divisée en deux camps apparemment inconciliables.

C’est en grande partie le résultat de la conception des plateformes de réseaux sociaux, car les algorithmes les poussent directement aux utilisateurs aux pairs partageant les mêmes idées. Cela crée des communautés en ligne qui deviennent très facilement des chambres d’écho, exacerbant la polarisation.

Les propres vulnérabilités des plates-formes à la manipulation extérieure en font des cibles tentantes pour les acteurs malveillants qui espèrent semer la discorde et perturber les sociétés.

Un article récent des chercheurs de Concordia publiés dans la revue IEEE Xplore Décrit une nouvelle méthode pour faciliter cela. L’approche utilise l’apprentissage du renforcement pour déterminer quel compte de médias sociaux de l’utilisateur piraté est le mieux placé pour maximiser la polarisation en ligne avec le moins de conseils.

« Nous avons utilisé la théorie des systèmes pour modéliser la dynamique des opinions de la psychologie qui ont été développées au cours des 20 dernières années », explique Rastko Selmic, professeur au Département de génie électrique et informatique de la Gina Cody School of Engineering and Computer Science et co-auteur de l’article.

« La nouveauté vient d’utiliser ces modèles pour de grands groupes de personnes et d’appliquer l’intelligence artificielle (IA) pour décider où positionner les robots – ces agents adversaires automatisés – et développer la méthode d’optimisation. »

L’auteur principal du journal, Ph.D. Le candidat Mohamed Zareer explique que l’objectif de cette recherche est d’améliorer les mécanismes de détection et de mettre en évidence les vulnérabilités des réseaux sociaux.

Un peu de données peut faire beaucoup de mal

Les chercheurs ont utilisé des données d’environ quatre millions de comptes sur le réseau de médias sociaux Twitter (maintenant x) qui avaient été identifiés comme ayant des opinions sur le thème des vaccins et de la vaccination.

Ils ont créé des agents contradictoires qui ont utilisé une technique appelée Double Deep Q-Learning. Cette approche d’apprentissage de renforcement permet aux robots d’effectuer des tâches complexes basées sur des récompenses dans des environnements complexes comme un réseau de médias sociaux avec relativement peu de surveillance par les programmeurs humains.

« Nous avons conçu nos recherches pour être simples et avoir autant d’impact que possible », explique Zareer.

Dans leur modèle, les agents contradictoires n’auraient que deux informations: les opinions actuelles du propriétaire du compte et le nombre d’adeptes. Les chercheurs ont appliqué leur algorithme à trois modèles probabilistes qui les ont parcourus à travers des réseaux synthétiques de 20 agents, ce qui, selon eux, rend les résultats représentatifs et généralisables.

Ces expériences et d’autres imitent les menaces réelles comme les robots ou les campagnes de désinformation coordonnées. Ils confirment l’efficacité de l’intensification de la polarisation et de la création de désaccords sur les réseaux sociaux.

Les chercheurs espèrent que leur travail influencera les décideurs politiques et les propriétaires de plateformes pour développer de nouvelles garanties contre la manipulation malveillante par des agents malveillants et favoriser la transparence et l’utilisation éthique de l’IA.