Comment les images générées artificiellement se trahissent

Comment les images générées artificiellement se trahissent

Les intelligences artificielles sont capables de créer des images que les humains ne peuvent pas distinguer des photographies. Crédit : Michael Schwettmann

Il suffit d’une simple commande textuelle : en un rien de temps, l’intelligence artificielle peut générer une image qui ressemble à une vraie photo et qui est indiscernable pour l’œil humain. Aussi fascinante soit-elle, elle jette essentiellement le doute sur l’authenticité de chaque image.

Pour son doctorat. thèse à la faculté d’informatique de l’université de la Ruhr à Bochum, Jonas Ricker s’est spécialisé dans la reconnaissance technique des fausses images. Il cherche des moyens de distinguer les images et les vidéos générées artificiellement des vraies. « Rubin », le magazine scientifique de l’Université de la Ruhr à Bochum, en Allemagne, présente un article sur son projet.

Au bruit gaussien et retour

Le modèle dit de diffusion pour la génération d’images est actuellement très populaire grâce à l’application Stable Diffusion. « Le principe sous-jacent peut sembler surprenant à première vue », déclare Ricker. « Une image réelle est diffusée pas à pas par ajout successif de bruit gaussien – d’où son nom. Quelques centaines de pas plus tard, l’information de l’image est complètement supprimée et l’image n’est plus que du bruit. Le but du modèle est maintenant d’inverser ce processus afin de reconstruire l’image originale – un défi délicat. »

L’essentiel n’est pas de prédire l’image directement, mais de la traiter étape par étape, de la même manière que le bruit avait été ajouté. Armé d’une quantité suffisante de données d’apprentissage, le modèle peut apprendre à rendre une image bruyante un tout petit peu moins bruyante. Grâce à une application répétée, des images complètement nouvelles peuvent alors être créées à partir de bruit aléatoire.

Dévoiler de faux profils sur les réseaux sociaux

« Déjà, le modèle de diffusion donne de très bons résultats en générant des images trompeusement réelles et il continuera à s’améliorer à l’avenir », estime Ricker. Cela rendra encore plus difficile la distinction entre les images réelles et celles générées artificiellement.

Ricker teste actuellement diverses approches pour distinguer les images générées par le modèle des vraies photos. La distinction entre les vraies et les fausses images est importante non seulement pour exposer les fausses nouvelles, par exemple celles qui sont livrées sous forme de vidéos, mais aussi pour exposer les faux profils sur les réseaux sociaux. De tels profils sont utilisés à grande échelle pour manipuler l’opinion publique sur des questions politiques, par exemple.

« C’est exactement l’objectif du cluster d’excellence CASA : exposer les attaquants à grande échelle tels que les gouvernements ou les services de renseignement qui ont les moyens d’utiliser des contrefaçons profondes pour diffuser de la propagande », déclare Ricker.