« DeepFake-o-Meter » démocratise la détection des deepfakes

« DeepFake-o-Meter » démocratise la détection des deepfakes

Lorsque des informations trompeuses se propagent en ligne, elles peuvent se propager rapidement.

Pourtant, la plupart des meilleurs outils permettant de démystifier rapidement des photographies, des vidéos et des fichiers audio viraux ne sont accessibles qu'aux chercheurs, comme Siwei Lyu, expert en deepfake de l'Université de Buffalo.

« Tout le monde, des utilisateurs des réseaux sociaux aux journalistes en passant par les forces de l'ordre, doit souvent passer par quelqu'un comme moi pour déterminer si un élément médiatique présente des signes d'intelligence artificielle », explique Lyu, qui répond régulièrement à ce genre de requêtes. « Ils ne peuvent pas obtenir une analyse immédiate et concluante lorsque le temps presse. »

C'est pourquoi Lyu et son équipe du UB Media Forensics Lab ont développé le DeepFake-o-Meter, qui combine plusieurs algorithmes de détection de deepfake de pointe en une seule plateforme open source basée sur le Web. Tout ce que les utilisateurs doivent faire est de créer un compte gratuit et de télécharger un fichier multimédia. Les résultats arrivent généralement en moins d'une minute.

Depuis novembre, plus de 6 300 contributions ont été envoyées à la plateforme. Les médias l'ont utilisée pour analyser divers contenus générés par l'IA, allant d'un appel automatisé de Joe Biden demandant aux habitants du New Hampshire de ne pas voter à une vidéo du président ukrainien Volodymyr Zelenskiy capitulant devant la Russie.

« L’objectif est de combler le fossé entre le public et la communauté scientifique », explique Lu, Ph.D., professeur d’innovation SUNY Empire au département d’informatique et d’ingénierie de l’École d’ingénierie et de sciences appliquées de l’UB. « Réunir les utilisateurs des médias sociaux et les chercheurs est essentiel pour résoudre bon nombre des problèmes posés par les deepfakes. »

Comment ça marche

L’utilisation du DeepFake-o-Meter est simple.

Faites glisser et déposez une image, une vidéo ou un fichier audio dans la zone de téléchargement. Sélectionnez ensuite des algorithmes de détection en fonction de diverses mesures répertoriées, notamment la précision, la durée d'exécution et l'année de développement.

Chaque algorithme donnera ensuite un pourcentage de probabilité que le contenu ait été généré par l'IA.

« Nous ne faisons pas de déclarations péremptoires sur le contenu mis en ligne. Nous fournissons simplement une analyse complète du contenu à l'aide d'un large éventail de méthodes », explique Lyu, qui est également codirecteur du Centre pour l'intégrité de l'information de l'UB, qui lutte contre les informations peu fiables et trompeuses en ligne. « Les utilisateurs peuvent ensuite utiliser ces informations pour décider eux-mêmes si le contenu qu'ils pensent est réel. »

Transparence

Plus tôt cette année, Poynter a analysé le faux appel automatisé de Biden avec quatre outils gratuits de détection de deepfakes en ligne. Le DeepFake-o-Meter s'est avéré le plus précis, donnant une probabilité de 69,7 % que l'audio ait été généré par l'IA.

Selon Lyu, les autres caractéristiques qui distinguent son outil sont la transparence et la diversité. Le DeepFake-o-Meter est open source, ce qui signifie que le public a accès aux codes sources des algorithmes, et propose des algorithmes développés par Lyu et d'autres groupes de recherche à travers le monde, ce qui permet un large éventail d'opinions et d'expertises.

« Les analyses d’autres outils peuvent être précises, mais elles ne révèlent pas les algorithmes utilisés pour arriver à cette conclusion et l’utilisateur ne voit qu’une seule réponse, ce qui peut être biaisé », explique Lyu. « Nous essayons d’offrir le niveau maximum de transparence et de diversité avec des codes open source provenant de nombreux groupes de recherche différents. »

Un avantage également pour les chercheurs

Avant de télécharger un élément multimédia, le site demandera aux utilisateurs s’ils souhaitent le partager avec les chercheurs.

Lyu et son équipe entraînent principalement leurs algorithmes à partir d'ensembles de données compilés par eux-mêmes et par d'autres équipes de recherche, mais il estime qu'il est essentiel d'exposer les algorithmes à des médias qui circulent réellement en ligne. Près de 90 % du contenu téléchargé sur le DeepFake-o-Meter jusqu'à présent était suspecté d'être faux par l'utilisateur.

« De nouveaux deepfakes plus sophistiqués apparaissent sans cesse. Les algorithmes doivent être continuellement peaufinés pour rester à la pointe », explique Lyu. « Pour qu'un modèle de recherche ait un impact réel, il faut des données réelles. »

L'avenir de la plateforme

Lyu espère augmenter les capacités de la plateforme au-delà de la détection de contenu généré par l'IA, en identifiant par exemple les outils d'IA les plus susceptibles d'avoir été utilisés pour le créer en premier lieu. Son groupe a déjà développé de tels outils.

« Cela nous fournirait des indices pour déterminer qui se cache derrière », explique Lyu. « Il ne suffit pas toujours de savoir qu'un média est synthétique ou manipulé. Nous devons savoir qui se cache derrière et quelle est son intention. »

Malgré les promesses des algorithmes de détection, il prévient que les humains ont encore un rôle important à jouer. Si les algorithmes peuvent détecter des signes de manipulation que l'œil ou l'oreille humaine ne parviendront jamais à détecter, les humains ont une connaissance sémantique du fonctionnement de la réalité que les algorithmes n'ont souvent pas.

« Nous ne pouvons pas nous fier uniquement aux algorithmes ou aux humains », affirme Lyu. « Nous avons besoin des deux. »

C'est pourquoi il espère que le DeepFake-O-Meter finira par créer sa propre communauté en ligne, avec des utilisateurs communiquant et s'entraidant pour détecter le contenu généré par l'IA.

« J'aime à penser qu'il s'agit d'un marché pour les chasseurs de primes deepfake », dit-il. « Parce qu'il faudra un effort collectif pour résoudre le problème du deepfake. »