Les personnes interrogées ont estimé que la recherche de « deepfakes » sexuellement explicites était plus acceptable que leur création ou leur partage.

Les personnes interrogées ont estimé que la recherche de « deepfakes » sexuellement explicites était plus acceptable que leur création ou leur partage.

Si les « deepfakes » à caractère sexuel ont surtout attiré l’attention sur les célébrités, ces images et vidéos sexuellement explicites générées par l’intelligence artificielle nuisent aux personnes, qu’elles soient sous les feux de la rampe ou non. À mesure que les modèles d’IA de conversion de texte en image deviennent plus sophistiqués et plus faciles à utiliser, le volume de ce type de contenu ne fait qu’augmenter.

L'escalade du problème a conduit Google à annoncer récemment qu'il s'efforcerait de filtrer ces deepfakes dans les résultats de recherche, et le Sénat a récemment adopté un projet de loi permettant aux victimes de demander des dommages et intérêts aux créateurs de deepfakes.

Face à cette attention croissante, des chercheurs de l’Université de Washington et de l’Université de Georgetown ont voulu mieux comprendre l’opinion publique sur la création et la diffusion de ce qu’ils appellent les « médias synthétiques ». Dans une enquête, 315 personnes ont largement jugé inacceptable la création et le partage de médias synthétiques. Mais beaucoup moins de réponses se sont prononcées contre la recherche de ces médias, même lorsqu’ils représentaient des actes sexuels.

Pourtant, des recherches antérieures ont montré que le fait que d’autres personnes visionnent des images de violence, comme des photos nues partagées sans consentement, porte un préjudice considérable aux victimes. Et dans presque tous les États, y compris Washington, la création et le partage de ce type de contenu non consensuel constituent un crime.

« Il est essentiel de placer le consentement au cœur des discussions sur les médias synthétiques, en particulier les images intimes, alors que nous cherchons des moyens de réduire les dommages qu’ils causent, que ce soit par le biais de la technologie, de la communication publique ou de la politique », a déclaré l’auteure principale Natalie Grace Brigham, qui était étudiante en master à l’UW à la Paul G. Allen School of Computer Science & Engineering au moment de la réalisation de cette recherche. « Dans un nu synthétique, ce n’est pas le corps du sujet – comme nous l’avons généralement considéré – qui est partagé. Nous devons donc élargir nos normes et nos idées sur le consentement et la vie privée pour tenir compte de cette nouvelle technologie. »

Les chercheurs présentent leurs résultats le 13 août lors du 20e Symposium sur la confidentialité et la sécurité utilisables à Philadelphie. Les travaux sont également publiés sur le site arXiv serveur de préimpression.

« Dans un certain sens, nous nous trouvons à une nouvelle frontière dans la façon dont le droit à la vie privée des gens est violé », a déclaré Tadayoshi Kohno, co-auteur principal et professeur à l'UW à l'école Allen. « Ces images sont synthétiques, mais elles ressemblent toujours à des personnes réelles, donc les rechercher et les regarder est préjudiciable pour ces personnes. »

L'enquête, que les chercheurs ont menée en ligne via Prolific, un site qui paie les gens pour répondre sur une variété de sujets, a demandé aux répondants américains de lire des vignettes sur les médias synthétiques.

L'équipe a modifié des variables dans ces scénarios comme qui a créé le média synthétique (un partenaire intime, un inconnu), pourquoi il l'a créé (pour faire du mal, pour se divertir ou pour le plaisir sexuel) et quelle action a été montrée (le sujet effectuant un acte sexuel, pratiquant un sport ou parlant).

Les répondants ont ensuite classé différentes actions autour des scénarios (créer la vidéo, la partager de différentes manières, la rechercher) de « totalement inacceptable » à « totalement acceptable » et ont expliqué leurs réponses en une ou deux phrases. Enfin, ils ont rempli des questionnaires sur le consentement et les informations démographiques. Les répondants avaient plus de 18 ans et étaient à 50 % des femmes, 48 ​​% des hommes, 2 % des personnes non binaires et 1 % des personnes agenres.

Dans l’ensemble, les répondants ont jugé inacceptable la création et le partage de médias synthétiques. Leurs notes médianes totalement inacceptables ou plutôt inacceptables étaient de 90 % pour la création de ces médias et de 94 % pour leur partage. Mais la médiane des notes inacceptables pour la recherche de médias synthétiques n’était que de 53 %.

Les hommes étaient plus susceptibles que les répondants des autres sexes de trouver acceptable la création et le partage de médias synthétiques, tandis que les répondants qui avaient une opinion favorable du consentement sexuel étaient plus susceptibles de trouver ces actions inacceptables.

« On parle beaucoup de politique pour empêcher la création de nus synthétiques. Mais nous ne disposons pas de bons outils techniques pour y parvenir, et nous devons simultanément protéger les cas d'utilisation consensuelle », a déclaré Elissa M. Redmiles, co-auteure principale et professeure adjointe d'informatique à l'université de Georgetown. « Au lieu de cela, nous devons changer les normes sociales.

Nous avons donc besoin de mesures telles que des messages de dissuasion sur les recherches (nous avons constaté qu'ils étaient efficaces pour réduire le nombre d'images d'abus sexuels sur mineurs) et une éducation basée sur le consentement dans les écoles axée sur ce contenu.

Les répondants ont trouvé les scénarios les plus acceptables dans lesquels des partenaires intimes créaient des médias synthétiques de personnes pratiquant un sport ou parlant dans le but de se divertir. À l’inverse, presque tous les répondants ont trouvé totalement inacceptable de créer et de partager des deepfakes sexuels de partenaires intimes dans l’intention de nuire.

Les réponses des répondants étaient diverses. Certains jugeaient les médias synthétiques inacceptables uniquement si le résultat était préjudiciable. Par exemple, un répondant a écrit : « Cela ne me fait pas de mal ni ne me fait de chantage… [a]« Tant que ce n'est pas partagé, je pense que c'est acceptable. » D'autres, cependant, ont mis l'accent sur leur droit à la vie privée et leur droit au consentement. « Je trouve inacceptable de manipuler mon image de cette façon – mon corps et son apparence m'appartiennent », a écrit un autre.

Les chercheurs notent que les travaux futurs dans ce domaine devraient explorer la prévalence des médias synthétiques non consensuels, les canaux de création et de partage, ainsi que les différentes méthodes visant à dissuader les gens de créer, de partager et de rechercher des médias synthétiques non consensuels.

« Certains soutiennent que les outils d’IA permettant de créer des images synthétiques auront des avantages pour la société, comme pour les arts ou la créativité humaine », a déclaré la co-auteure Miranda Wei, doctorante à l’Allen School.

« Cependant, nous avons constaté que la plupart des gens pensaient que la création d’images synthétiques d’autrui était dans la plupart des cas inacceptable, ce qui suggère que nous avons encore beaucoup de travail à faire en matière d’évaluation des impacts des nouvelles technologies et de prévention des dommages. »