Les humains sont à peine capables de reconnaître les médias générés par l’IA
Les images, textes et fichiers audio générés par l’IA sont si convaincants que les gens ne sont plus capables de les distinguer du contenu généré par l’homme. C'est le résultat d'une enquête en ligne menée auprès d'environ 3 000 participants en Allemagne, en Chine et aux États-Unis. C'est la première fois qu'une grande étude transnationale examine cette forme particulière d'éducation aux médias.
Le Dr Lea Schönherr de la Faculté CISPA et le Professeur Dr Thorsten Holz ont présenté les résultats cette semaine lors du 45ème Symposium de l'IEEE sur la sécurité et la confidentialité qui s'est tenu à San Francisco du 20 au 23 mai. L'étude a été menée en coopération avec l'Université de la Ruhr à Bochum, l'Université Leibniz de Hanovre et la TU Berlin et est publiée sur le arXiv serveur de préimpression.
Grâce aux développements rapides dans le domaine de l’intelligence artificielle, des masses d’images, de textes et de fichiers audio peuvent désormais être générées en quelques clics seulement.
Le professeur Dr. Thorsten Holz explique selon lui les risques qui y sont associés : « Le contenu généré artificiellement peut être utilisé à mauvais escient de plusieurs manières. Cette année, nous avons des élections importantes, comme les élections au Parlement européen ou l’élection présidentielle aux États-Unis. Les médias générés par l’IA peuvent être très facilement utilisés pour influencer l’opinion politique. Je considère cela comme une menace majeure pour notre démocratie. »
Dans ce contexte, la reconnaissance automatisée des médias générés par l’IA constitue un défi de recherche important. « Mais c'est une course contre la montre, » Le Dr Lea Schönherr de la Faculté CISPA explique. « Les médias créés avec des méthodes de génération d’IA récemment développées sont de plus en plus difficiles à reconnaître à l’aide de méthodes automatiques. C'est pourquoi cela dépend en fin de compte de la capacité d'un humain à effectuer des évaluations appropriées. »
Cette considération a été le point de départ pour déterminer si les humains sont capables d’identifier les médias générés par l’IA.
La plupart des participants classent les médias générés par l’IA comme étant créés par l’homme.
Les résultats de leur étude transnationale cross-média sont étonnants. « Nous en sommes déjà au point où il est difficile, mais pas encore impossible, pour les gens de dire si quelque chose est réel ou généré par l’IA. Et cela s'applique à tous les types de médias : textes, audio et images, » Holz explique.
Dans tous les pays et types de médias, la majorité des participants à l’étude ont classé les médias générés par l’IA comme étant créés par l’homme.
« Nous avons été surpris de constater qu’il existe très peu de facteurs pouvant être utilisés pour expliquer si les humains sont plus aptes à reconnaître ou non les médias générés par l’IA. Même entre différents groupes d'âge et facteurs tels que le niveau d'éducation, les attitudes politiques ou l'éducation aux médias, les différences ne sont pas très significatives. » Holz développe.
L'étude comprend des données sociobiographiques
Entre juin 2022 et septembre 2022, l'étude quantitative a été menée sous forme d'enquête en ligne en Chine, en Allemagne et aux États-Unis. Les personnes interrogées ont été assignées au hasard à l'un des trois groupes de médias. « texte, » « image, » ou « l'audio » et ont vu 50 % de médias réels et 50 % de médias générés par l'IA. En outre, des données sociobiographiques, la connaissance des médias générés par l'IA ainsi que des facteurs tels que l'éducation aux médias, la pensée holistique, la confiance générale, la réflexion cognitive et l'orientation politique ont été collectés.
Après le nettoyage des données, il restait 2 609 ensembles de données (822 aux États-Unis, 875 en Allemagne, 922 en Chine), ce qui a éclairé l'analyse. Les fichiers audio et texte générés par l’IA utilisés dans l’étude ont été générés par les chercheurs eux-mêmes, tandis que les images générées par l’IA ont été tirées d’une étude existante. Les images utilisées étaient des portraits photoréalistes, les textes étaient des faits divers, tandis que les fichiers audio étaient des extraits de littérature.
Points de départ pour des recherches plus approfondies
Les résultats de l’étude fournissent des enseignements importants pour la recherche sur la cybersécurité. « Il existe un risque que les textes et fichiers audio générés par l’IA soient utilisés pour des attaques d’ingénierie sociale. Il est concevable que la prochaine génération d'e-mails de phishing me soit personnalisée et que le texte me corresponde parfaitement, » Schönherr explique. Elle estime que le développement de mécanismes de défense adaptés précisément à de tels scénarios d’attaque constitue une tâche importante pour l’avenir.
Cependant, d’autres souhaits de recherche ressortent également de l’étude. « Premièrement, nous devons mieux comprendre comment les gens peuvent encore reconnaître les médias générés par l’IA. Nous prévoyons une étude en laboratoire dans laquelle les participants devront nous expliquer comment ils reconnaissent si quelque chose est généré par l'IA ou non. D'un autre côté, nous devons réfléchir à la manière dont nous pouvons soutenir cela sur le plan technique, par exemple via des processus automatisés de vérification des faits, » Schönherr conclut.
Fourni par le Centre CISPA Helmholtz pour la sécurité de l'information