Faux ou vrai ? Comment l’IA peut rendre plus difficile la confiance dans les images que nous voyons

Faux ou vrai ? Comment l’IA peut rendre plus difficile la confiance dans les images que nous voyons

Une nouvelle étude a révélé que l’intelligence artificielle peut désormais générer des images de personnes réelles qu’il est pratiquement impossible de distinguer de véritables photographies.

À l'aide des modèles d'IA ChatGPT et DALL·E, une équipe de chercheurs de l'Université de Swansea, de l'Université de Lincoln et de l'Université Ariel en Israël, a créé des images très réalistes de visages fictifs et célèbres, y compris des célébrités.

Ils ont constaté que les participants étaient incapables de les distinguer de manière fiable des photos authentiques, même lorsqu'ils connaissaient l'apparence de la personne.

Dans quatre expériences distinctes, les chercheurs ont noté que l'ajout de photos comparatives ou la familiarité préalable des participants avec les visages n'apportait qu'une aide limitée.

La recherche vient d'être publiée dans la revue Recherche cognitive : principes et implications et l'équipe affirme que leurs découvertes mettent en évidence un nouveau niveau de « réalisme profond », montrant que l'IA peut désormais produire de fausses images convaincantes de personnes réelles, ce qui pourrait éroder la confiance dans les médias visuels.

Le professeur Jeremy Tree, de l'École de psychologie, a déclaré : « Des études ont montré que les images de visages de personnes fictives générées à l'aide de l'IA ne peuvent pas être distinguées des photographies réelles. Mais pour cette recherche, nous sommes allés plus loin en générant des images synthétiques de personnes réelles.

« Le fait que les outils d'IA quotidiens puissent faire cela soulève non seulement des préoccupations urgentes concernant la désinformation et la confiance dans les médias visuels, mais également la nécessité de disposer de toute urgence de méthodes de détection fiables. »

L'une des expériences, qui impliquait des participants des États-Unis, du Canada, du Royaume-Uni, d'Australie et de Nouvelle-Zélande, a vu des sujets montrer une série d'images faciales, à la fois réelles et artificiellement générées, et il leur a été demandé d'identifier laquelle était laquelle. L'équipe affirme que le fait que les participants ont confondu les nouveaux visages générés par l'IA avec de vraies photos indique à quel point ils étaient plausibles.

Dans une autre expérience, on a demandé aux participants s'ils pouvaient distinguer de véritables images de stars hollywoodiennes telles que Paul Rudd et Olivia Wilde à partir de versions générées par ordinateur. Encore une fois, les résultats de l’étude ont montré à quel point les individus peuvent avoir du mal à repérer la version authentique.

Les chercheurs affirment que la capacité de l’IA à produire des images nouvelles/synthétiques de personnes réelles ouvre un certain nombre de possibilités d’utilisation et d’abus. Par exemple, les créateurs peuvent générer des images d’une célébrité soutenant un certain produit ou une certaine position politique, ce qui pourrait influencer l’opinion publique à la fois sur l’identité et sur la marque/l’organisation qu’ils sont présentés comme soutenant.

Le professeur Tree a ajouté : « Cette étude montre que l'IA peut créer des images synthétiques de visages nouveaux et connus que la plupart des gens ne peuvent pas distinguer des vraies photos. La familiarité avec un visage ou le fait d'avoir des images de référence n'ont pas beaucoup aidé à repérer les contrefaçons. C'est pourquoi nous devons de toute urgence trouver de nouveaux moyens de les détecter.

« Même si les systèmes automatisés pourraient éventuellement surpasser les humains dans cette tâche, pour l'instant, c'est aux téléspectateurs de juger de ce qui est réel. »