Deepfakes, voici les nouveaux outils pour les démasquer
Le contenu créé par l’intelligence artificielle inonde de plus en plus le Web (en particulier les médias sociaux), ce qui rend de plus en plus flou ce qui est réel et ce qui ne l’est pas. Ce sont les soi-disant faux profond. Il suffit de penser à la propagande électorale américaine qui domine cette année 2024 « chaude ». D’un côté, nous avons le magnat Donald Trump qui prétend faussement que les images d’un rassemblement de l’actuelle vice-présidente Kamala Harris ont été générées par l’IA, tandis que de l’autre côté, D'un autre côté, nous avons un faux appel automatisé, sanctionné par la suite, du président américain Joe Biden, disant aux électeurs de ne pas aller voter. Et ce ne sont là que deux petits exemples de la dangereuse montée en puissance de l’intelligence artificielle dans le domaine de la désinformation rampante.
IA pour attaquer, IA pour défendre
Cependant, si d’un côté nous avons l’attaque, de l’autre nous avons la défense. Pour contrecarrer cette intelligence artificielle « déformée » qui prend le nom de faux profond nous disposons de détecteurs utiles au service de ceux qui ont un « intérêt contraire » à la désinformation, à savoir les organes de presse et les réseaux sociaux. Des géants comme Meta ou X, par exemple, utilisent de tels détecteurs pour étiqueter les faux contenus sur leurs plateformes.
Cependant, les responsables du gouvernement américain font pression sur le secteur privé pour qu'il investisse des millions d'euros dans la création de logiciels anti-deepfake qui ne leur permettront pas de déranger les élections de novembre prochain ou permettre aux puissances étrangères (lire en premier lieu la Russie et la Chine) de « fomenter des troubles internes ».
Mais si l’intelligence artificielle est désormais un doyen du secteur, la science de la détection des contenus manipulés ou inappropriés n’en est qu’au début de son « aventure ». Une étude d'il y a quelques mois promue par Reuters a découvert que de nombreux outils de détection des deepfakes peuvent être facilement trompés avec de simples astuces logicielles ou des techniques d'édition. Proliférant comme une traînée de poudre.
Comment découvrir les deepfakes ?
Mais comment savoir si une photo, une vidéo ou un fichier audio a été manipulé ou non ? Comment savoir, avant tout, « avec certitude » ? Tout d’abord, un clip vidéo, un morceau audio ou une image faisant référence à une personne (pensez à Trump ou Harris) est chargé dans un outil de détection de deepfake. Ici, le contenu est jugé par un groupe d’algorithmes « experts » entraînés à rechercher des « indicateurs d’authenticité ».
Un algorithme inspecte la zone autour du visage, à la recherche de preuves qu'il a été échangé avec une autre personne, tandis qu'un autre algorithme suit les lèvres à la recherche de mouvements anormaux et d'un positionnement irréaliste.
Un troisième algorithme analyse le son, à la recherche de fréquences vocales inhabituelles, de pauses et de bégaiements. Cependant, en descendant jusqu'au niveau des pixels, un algorithme examine les images à la recherche de modèles de « bruit » visuel qui s'écartent des autres zones. L'algorithme suivant compare la façon dont les pixels se déplacent entre les images de la vidéo, à la recherche d'indices subtils comme des sauts artificiels ou l'absence de flou de mouvement présent dans les vidéos authentiques.
Si l’analyse du mouvement n’est pas concluante, un algorithme tente de recréer l’image en utilisant la technique de diffusion qui alimente actuellement l’intelligence artificielle. L’image résultante montre ce que la diffusion n’a pas pu reconstruire. Enfin, le dernier algorithme recherche un motif en damier dans la distribution des pixels, caractéristique de Réseaux adverses génératifs (GAN)une technique de génération d’images « plus ancienne ».
Le verdict de chaque algorithme est ensuite combiné par l'outil de détection pour déterminer si le contenu est susceptible d'être réel ou faux.
Vérification des faits en temps réel
Si les outils de détection des deepfakes fonctionnent correctement, ils pourraient fournir une « vérification des faits » en temps réel sur des plateformes comme Instagram, TikTok, ainsi que du marketing trompeur et de la désinformation avant qu’ils ne s’installent. Les politiciens de Washington à Bruxelles sont de plus en plus préoccupés par l’impact des deepfakes et envisagent de déployer des détecteurs comme solution au problème.
La nouvelle législation européenne sur l'IA (Règlement UE 2024/1689) vise à endiguer l'impact des fausses images grâce à des mandats qui aideraient le public à identifier les deepfakes, notamment grâce à une technologie de détection. Le gouvernement américain et les hauts responsables de l’Union européenne ont fait pression sur l’industrie technologique pour qu’elle investisse dans de nouveaux moyens de détecter le contenu généré par l’IA, dans le but de réduire sa nature informationnelle malveillante.
Les défauts des détecteurs de deepfake
Cependant, les détecteurs de deepfake présentent également des défauts importants (tout comme l’intelligence artificielle est affectée par les préjugés ou les biais). Selon des chercheurs de plusieurs universités et entreprises aux États-Unis, en Australie et en Inde, les techniques de détection ont une précision comprise entre 82 % et 25 %. Cela signifie que les détecteurs identifient souvent à tort les images fausses ou manipulées comme réelles et signalent les images réelles comme fausses (faux positif – faux négatif). Les algorithmes qui alimentent les détecteurs de deepfake sont bons en fonction de la qualité des données sur lesquelles ils s’entraînent (un peu comme l’IA pourrait-on dire).
Les ensembles de données sont en grande partie composés de deepfakes créés en laboratoire et n’imitent pas avec précision les caractéristiques des deepfakes qui apparaissent, par exemple, sur les réseaux sociaux. Les détecteurs peuvent ne pas être en mesure, entre autres choses, de détecter des modèles anormaux dans la physique de l'éclairage ou des mouvements du corps. Les détecteurs sont plus efficaces pour repérer les images courantes dans leurs données d'entraînement.
Cela signifie que les détecteurs pourraient identifier avec précision les deepfakes du président russe Vladimir Poutine, alors qu'ils pourraient avoir des difficultés avec les images du président estonien Alar Karis (car il est moins courant dans les recherches en ligne et, en général, « moins célèbre » que son « homologue voisin »). ). De plus, les détecteurs peuvent être moins précis lorsque les images contiennent des personnes à la peau foncée (un biais de l’IA transmis aux détecteurs deepfake, pourrions-nous dire).
Ou lorsque les gens manipulent des photos générées par l’IA à l’aide de techniques Photoshop telles que le flou ou la compression de fichiers ; autant de cas où les outils de détection pourraient être trompés. Les experts en intelligence artificielle ont déclaré que les utilisateurs de deepfakes sont également capables de créer des images qui ont une longueur d'avance sur la technologie de détection.
Si l’on ajoute ensuite au « chaudron » que les propriétaires de médias sociaux peuvent pousser vers ce type de distorsion de la technologie, le tableau complet de la situation est dressé.