Une étude montre que les participants à l'enquête sont trompés par les images générées par l'IA dans près de 40 % du temps.
Si vous avez récemment eu du mal à déterminer si l'image d'une personne est réelle ou générée par l'intelligence artificielle (IA), vous n'êtes pas seul.
Une nouvelle étude menée par des chercheurs de l'Université de Waterloo a révélé que les gens avaient plus de difficulté que prévu à distinguer qui est une personne réelle et qui est générée artificiellement. L'étude intitulée « Voir n'est plus croire : une enquête sur l'état des deepfakes, des humains générés par l'IA et d'autres médias non véridiques » paraît dans la revue Progrès en infographie.
L'étude de Waterloo a vu 260 participants recevoir 20 images non étiquetées : 10 d'entre elles étaient des personnes réelles obtenues à partir de recherches Google et les 10 autres générées par Stable Diffusion ou DALL-E, deux programmes d'IA couramment utilisés pour générer des images.
Les participants ont été invités à qualifier chaque image de réelle ou générée par l'IA et à expliquer pourquoi ils avaient pris leur décision. Seuls 61 % des participants pouvaient faire la différence entre les personnes générées par l’IA et les personnes réelles, bien en dessous du seuil de 85 % attendu par les chercheurs.
« Les gens ne sont pas aussi habiles à faire la distinction qu'ils le pensent », a déclaré Andreea Pocol, titulaire d'un doctorat. candidat en informatique à l'Université de Waterloo et auteur principal de l'étude.
Les participants ont prêté attention à des détails tels que les doigts, les dents et les yeux comme indicateurs possibles lorsqu'ils recherchaient du contenu généré par l'IA, mais leurs évaluations n'étaient pas toujours correctes.
Pocol a noté que la nature de l'étude permettait aux participants d'examiner longuement les photos, alors que la plupart des internautes regardent les images au passage.
« Les gens qui se contentent de faire défiler la catastrophe ou qui n'ont pas le temps ne comprendront pas ces signaux », a déclaré Pocol.
Pocol a ajouté que le rythme extrêmement rapide auquel la technologie de l’IA se développe rend particulièrement difficile la compréhension du potentiel d’action malveillante ou néfaste posé par les images générées par l’IA. Le rythme de la recherche universitaire et de la législation n'est souvent pas en mesure de suivre : les images générées par l'IA sont devenues encore plus réalistes depuis le début de l'étude fin 2022.
Ces images générées par l’IA sont particulièrement menaçantes en tant qu’outil politique et culturel, car tout utilisateur pourrait créer de fausses images de personnalités publiques dans des situations embarrassantes ou compromettantes.
« La désinformation n'est pas nouvelle, mais les outils de désinformation changent et évoluent constamment », a déclaré Pocol. « Cela pourrait arriver à un point où les gens, quelle que soit leur formation, auront encore du mal à différencier les vraies images des fausses. C'est pourquoi nous devons développer des outils pour identifier et contrer cela. C'est comme une nouvelle course aux armements en matière d'IA. »