Le logiciel 'Glaze' vise à protéger l'art de l'imitation de l'IA

Des recherches mettent en lumière le rôle de l’IA dans la propagation de la désinformation

Dans un monde où les médias sociaux influencent les opinions et façonnent les récits, l’essor de l’intelligence artificielle (IA) est à la fois une aubaine et un défi.

Une nouvelle étude intitulée « Social Bots and the Spread of Disinformation in Social Media : The Challenges of Artificial Intelligence », publiée dans le Journal britannique de gestionplonge dans le domaine des robots sociaux alimentés par l'IA, révélant leur potentiel à diffuser des informations erronées et le besoin urgent pour les organisations de détecter et d'atténuer leurs effets néfastes.

Menée par une équipe de chercheurs du Royaume-Uni et du Canada, l'étude utilise des techniques de pointe d'exploration de texte et d'apprentissage automatique pour disséquer le comportement des robots sociaux sur X (anciennement Twitter), l'une des plateformes de médias sociaux les plus importantes. En analysant un ensemble de données de 30 000 tweets en anglais, les chercheurs découvrent le réseau complexe d’interactions entre acteurs humains et non humains, mettant en lumière la propagation de la désinformation dans la sphère numérique.

« Les robots sociaux ne sont pas seulement des entités inoffensives ; ils ont le pouvoir d'influencer l'opinion publique et même de manipuler les marchés », déclare le Dr Mina Tajvidi, codirectrice du programme de marketing MSc ; Maître de conférences en marketing à la School of Business and Management de l'Université Queen Mary de Londres. « Notre recherche souligne l'importance de comprendre leurs intentions et de détecter leur présence le plus tôt possible pour empêcher la propagation de fausses informations. »

L'étude s'inspire de la théorie des acteurs-réseaux (ANT), fournissant un cadre théorique pour examiner la dynamique entre les humains, les robots et le paysage numérique. En intégrant ANT à des modèles d'apprentissage profond, les chercheurs dévoilent la relation symbiotique entre les acteurs et le langage qu'ils utilisent, offrant ainsi de nouvelles perspectives sur la propagation de la désinformation.

« Nos résultats mettent en évidence la nécessité de techniques de détection améliorées et d'une plus grande prise de conscience du rôle que jouent les robots sociaux dans l'élaboration du discours en ligne », ajoute le Dr Mina Tajvidi. « Bien que nos recherches se concentrent sur X (anciennement Twitter), les implications s'étendent à toutes les plateformes de médias sociaux, où l'influence de l'IA est de plus en plus répandue. »

Cependant, l’étude reconnaît également ses limites, notamment le manque de métadonnées et l’accent mis sur les tweets en anglais. Les chercheurs soulignent la nécessité de futures études pour explorer des langages et des modalités de communication supplémentaires afin de fournir une compréhension globale du comportement des robots sociaux.

Alors que le paysage numérique continue d’évoluer, la recherche constitue un appel à la vigilance et à des mesures proactives pour lutter contre la propagation de la désinformation. En exploitant la puissance de l’IA pour le bien et en dotant les organisations des outils nécessaires pour détecter et atténuer les robots sociaux nuisibles, nous pouvons ouvrir la voie à une société plus informée et plus résiliente.