Nous avons une nouvelle méthode pour détecter les deepfakes. Un basé sur la façon dont nous mesurons les galaxies
La photo principale de Scarlett Johansson est réelle. Pas la personne de droite. Il s’agit d’un deepfake généré par l’IA, et bien qu’il soit vraiment réussi, il a été possible de détecter qu’il avait été créé par une machine. La méthode pour réaliser cette détection est particulièrement curieuse.
Le secret de ses yeux. Des chercheurs de l’Université de Hull ont développé une nouvelle méthode pour détecter les images créées par des modèles d’IA génératifs. La clé, disent-ils, est dans les yeux de ces images de personnes. Et plus particulièrement dans la façon dont ils réfléchissent la lumière.
Une technique astronomique. La manière de détecter ces fausses images s’appuie étonnamment sur les outils utilisés par les astronomes pour étudier les galaxies. Dans ce cas, ces techniques permettent d’analyser la consistance de la lumière réfléchie dans les globes oculaires.
Échec. Selon cette étude, dirigée par l'étudiant Adejumoke Owolabi et supervisée par son professeur d'astrophysique, le Dr Kevin Pimbblet, l'étude des reflets lumineux dans les yeux permet de détecter les deepfakes. Normalement, les deux yeux réfléchissent le reflet des sources lumineuses de la même manière, mais dans les images créées par l’IA, ce fait n’est pas pris en compte et il y a généralement une incohérence dans le reflet de chaque œil.
Jouer à trouver les différences. Bien que dans de nombreux cas, il soit facile de voir à l’œil nu les différences de réflexion de la lumière dans les yeux, la technique astronomique permet de trouver et de quantifier ces incohérences. Owolabi a développé une technique pour détecter automatiquement ces différences en analysant les caractéristiques morphologiques des reflets à l'aide d'indices permettant de comparer la similarité entre les globes oculaires gauche et droit.
coefficient de Gini. L'outil développé utilise le coefficient dit de Gini, traditionnellement utilisé pour mesurer la distribution de la lumière dans les images des galaxies, et qui permet d'évaluer l'uniformité des réflexions. Dans le cas de ces études, comme l'a indiqué Pimbblet, on mesure la forme des galaxies, leur compacité, leur symétrie et la répartition de la lumière.
Utile… pour l'instant. L'outil semble utile et rejoint d'autres techniques qui ont tenté ces derniers mois de nous aider à détecter les deepfakes. Le problème est qu’une fois que l’on saura que les modèles d’IA générative ont ce problème, leurs créateurs les modifieront pour le corriger et rendre ces deepfakes encore plus difficiles à détecter.
Les filigranes comme alternative. Face à ces techniques, il semble que l’option la plus intéressante pour le moment soit de générer ces filigranes invisibles qui identifient les images générées par l’IA en tant que telles. Il existe plusieurs mouvements diversifiés dans ce sens, et il reste à voir s’ils finiront par devenir la norme.
Images | Adejumoke Owolabi
À Simseo | L’IA a tellement progressé que le problème ne concerne pas seulement les deepfakes. C'est juste qu'on se méfie même des vraies photos