À mesure que l’IA génératrice devient plus sophistiquée, il est plus difficile de distinguer le réel de la profondeur
À l’ère de l’intelligence artificielle générative (Genai), l’expression « Je le croirai quand je le verrai » ne se tient plus. Non seulement Genai est capable de générer des représentations manipulées de personnes, mais elle peut également être utilisée pour générer des personnes et des scénarios entièrement fictifs.
Les outils Genai sont abordables et accessibles à tous, et les images générées par l’IA deviennent omniprésentes. Si vous avez fait un défilement de vos nouvelles ou vos flux Instagram, vous avez des chances que vous ayez fait défiler une image générée par AI-AI sans même s’en rendre compte.
En tant que chercheur en informatique et doctorat. candidat à l’Université de Waterloo, je suis de plus en plus préoccupé par ma propre incapacité à discerner ce qui est réel de ce qui est généré par l’AI.
Mon équipe de recherche a mené une enquête où près de 300 participants ont été invités à classer un ensemble d’images comme réelles ou fausses. La précision moyenne de classification des participants était de 61% en 2022. Les participants étaient plus susceptibles de classer correctement les images réelles que les fausses. Il est probable que la précision soit beaucoup plus faible aujourd’hui grâce à l’amélioration rapide de la technologie Genai.
Nous avons également analysé leurs réponses en utilisant l’extraction de texte et l’extraction de mots clés pour apprendre les justifications courantes que les participants ont fournies pour leurs classifications. Il était immédiatement évident que, dans une image générée, les yeux d’une personne étaient considérés comme l’indicateur révélateur que l’image était probablement générée par l’AI. L’IA a également eu du mal à produire des dents, des oreilles et des cheveux réalistes.
Mais ces outils s’améliorent constamment. Les signes révélateurs que nous pourrions autrefois utiliser pour détecter les images générés par l’AI ne sont plus fiables.
Améliorer les images
Les chercheurs ont commencé à explorer l’utilisation des Gans pour la synthèse d’image et de vidéo en 2014. Le document séminal « Generative Adversarial NETS » a introduit le processus adversaire des Gans. Bien que ce document ne mentionne pas Deepfakes, c’était le tremplin pour Deepfakes basés sur Gan.
Quelques premiers exemples d’art Genai qui ont utilisé GANS incluent les images « Deepdream » créées par l’ingénieur de Google Alexander MordvintSev en 2015.
Mais en 2017, le terme « Deepfake » est officiellement né après un utilisateur de Reddit, dont le nom d’utilisateur était « Deepfakes », a utilisé Gans pour générer une pornographie synthétique de célébrités.
En 2019, l’ingénieur logiciel Philip Wang a créé le site Web « ThisPersondoSoSnotexist », qui a utilisé GANS pour générer des images réalistes de personnes. La même année, la libération du Deepfake Detection Challenge, qui a recherché de nouveaux modèles de détection DeepFake, a attiré une attention généralisée et a conduit à la montée en puissance des Fakes Deep.
Environ une décennie plus tard, l’un des auteurs du document « Generative Adversarial NETS » – l’informaticien canadien Yoshua Bengio – partageant ses préoccupations concernant la nécessité de réguler l’IA en raison des dangers potentiels que la technologie pourrait poser pour l’humanité.
Bengio et d’autres pionniers de l’IA ont signé une lettre ouverte en 2024, appelant à une meilleure réglementation DeepFake. Il a également dirigé le premier rapport international de sécurité de l’IA, qui a été publié au début de 2025.
Hao Li, pionnier Deepfake et l’un des meilleurs artistes du monde Deepfake, concédé d’une manière qui rappelle étrangement la célèbre citation de Robert Oppenheimer « Now I Am Death »:
« Cela se développe plus rapidement que je ne le pensais. Bientôt, cela va arriver au point où il n’y a plus de moyen de détecter les« profonds », nous devons donc regarder d’autres types de solutions. »
La nouvelle désinformation
Les grandes entreprises technologiques ont en effet encouragé le développement d’algorithmes qui peuvent détecter Deep Fakes. Ces algorithmes recherchent généralement les signes suivants pour déterminer si le contenu est unfake Deep:
- Nombre de mots prononcés par phrase ou le taux de parole (le taux de parole humain moyen est de 120 à 150 mots par minute),
- Expressions faciales, basées sur des coordonnées connues des yeux humains, des sourcils, du nez, des lèvres, des dents et des contours faciaux,
- Réflexions dans les yeux, qui ont tendance à ne pas être convaincantes (manquantes ou simplifiées à l’extérieur),
- La saturation d’image, avec des images générées par l’AI étant moins saturées et contenant un nombre inférieur de pixels sous-exposés par rapport aux photos prises par un appareil photo HDR.
Mais même ces algorithmes traditionnels de détection de profondeur profonde souffrent de plusieurs inconvénients. Ils sont généralement formés sur des images haute résolution, ils peuvent donc échouer à détecter des images de surveillance à basse résolution ou lorsque le sujet est mal éclairé ou posant de manière non reconnue.
Malgré des tentatives de réglementation fragiles et inadéquates, les joueurs voyous continuent d’utiliser des fesses profondes et une synthèse d’IA de texte à l’image à des fins néfastes. Les conséquences de cette utilisation non réglementée vont de la déstabilisation politique au niveau national et mondial à la destruction de réputations causées par des attaques très personnelles.
La désinformation n’est pas nouvelle, mais les modes de propagation de sa propagation changent constamment. Deepfakes peut être utilisé non seulement pour répandre la désinformation – c’est-à-dire pour postuler que quelque chose de faux est vrai – mais aussi pour créer un déni plausible et poster que quelque chose de vrai est faux.
Il est sûr de dire que dans le monde d’aujourd’hui, voir ne croire plus jamais. Ce qui aurait pu être des preuves irréfutables pourrait très bien être une image générée par l’AI.