Des chercheurs analysent les caractéristiques des deepfakes générés par l’IA
La plupart des deepfakes (vidéos avec de fausses reconstitutions hyperréalistes) générés par l’intelligence artificielle (IA) qui se propagent sur les réseaux sociaux mettent en scène des représentants politiques et des artistes et sont souvent liés aux cycles d’actualité actuels.
C'est l'une des conclusions d'une recherche menée par l'Université Carlos III de Madrid (UC3M) qui analyse les caractéristiques formelles et de contenu de la désinformation virale en Espagne résultant de l'utilisation d'outils d'IA à des fins illicites. Cette avancée représente une étape vers la compréhension et l’atténuation des menaces générées par les canulars dans notre société.
Dans l'étude, récemment publiée dans la revue Observatoire (OBS*)l'équipe de recherche a étudié ce faux contenu grâce aux vérifications d'organismes espagnols de vérification des faits, tels que EFE Verifica, Maldita, Newtral et Verifica RTVE.
« L'objectif était d'identifier une série de modèles et de caractéristiques communs à ces deepfakes viraux, de fournir des indices pour leur identification et de faire des propositions en matière d'éducation aux médias afin que les citoyens puissent lutter contre la désinformation », explique l'une des auteurs, Raquel Ruiz Incertis, chercheuse au département de communication de l'UC3M, où elle poursuit un doctorat. dans la communication européenne.
Les chercheurs ont développé une typologie des deepfakes, qui permet de plus facilement les identifier et les neutraliser. Selon les résultats de l’étude, certains dirigeants politiques (comme Trump ou Macron) ont été les principaux protagonistes de contenus faisant référence à la consommation de drogues ou à des activités moralement répréhensibles. Il existe également une proportion considérable de deepfakes pornographiques qui portent atteinte à l'intégrité des femmes, exposant notamment des chanteuses et actrices célèbres. Ils sont généralement partagés à partir de comptes non officiels et se propagent rapidement via des services de messagerie instantanée, affirment les chercheurs.
La prolifération des deepfakes, ou l’utilisation fréquente d’images, de vidéos ou d’audio manipulés avec des outils d’IA, est une question très d’actualité. « Ce type de canular préfabriqué est particulièrement préjudiciable dans des situations sensibles, comme en période préélectorale ou en période de conflit comme ceux que nous vivons actuellement en Ukraine ou à Gaza. C'est ce que nous appelons des « guerres hybrides » : la guerre est Nous nous sommes battus non seulement dans le domaine physique, mais aussi dans le domaine numérique, et les mensonges sont plus importants que jamais », déclare Ruiz Incertis.
Les applications de cette recherche sont diverses, de la sécurité nationale à l'intégrité des campagnes électorales. Les résultats suggèrent que l’utilisation proactive de l’IA sur les plateformes de médias sociaux pourrait révolutionner la manière dont nous préservons l’authenticité des informations à l’ère numérique.
La recherche souligne la nécessité d'une plus grande éducation aux médias et propose des stratégies éducatives pour améliorer la capacité du public à discerner entre le contenu réel et manipulé. « Beaucoup de ces deepfakes peuvent être identifiés grâce à des recherches d'images inversées sur des moteurs de recherche tels que Google ou Bing. Il existe des outils permettant au public de vérifier l'exactitude du contenu en quelques clics avant de diffuser un contenu d'origine douteuse. La clé est d'enseigner leur dire comment le faire », explique Ruiz Incertis.
Il fournit également d'autres conseils pour détecter les deepfakes, comme faire attention à la netteté des bords des éléments et à la définition du fond de l'image : si les mouvements sont ralentis dans les vidéos ou s'il y a une altération du visage, une disproportion corporelle ou étrange jeu d’ombre et de lumière, tout indique qu’il pourrait s’agir d’un contenu généré par l’IA.
Par ailleurs, les auteurs de l'étude voient également la nécessité d'une législation qui oblige les plateformes, applications et programmes (comme Midjourney ou Dall-e) à établir un « filigrane » qui les identifie et permet à l'utilisateur de savoir d'un coup d'œil que l'image ou la vidéo a été modifiée ou créée entièrement avec l'IA.
L’équipe de recherche a utilisé une approche multidisciplinaire, combinant science des données et analyse qualitative, pour examiner comment les organisations de vérification des faits appliquent l’IA dans leurs opérations. La méthodologie principale est une analyse de contenu d’une trentaine de publications extraites des sites Internet des fact-checkers susmentionnés où ce contenu manipulé ou fabriqué par l’IA est réfuté.