Élévation spectaculaire des générateurs d’images DeepFake téléchargeables publiquement, découvertes d’étude
Des chercheurs de l’Oxford Internet Institute (OII) de l’Université d’Oxford ont découvert une augmentation spectaculaire d’outils d’IA facilement accessibles spécialement conçus pour créer des images profondes de personnes identifiables, trouvant près de 35 000 de ces outils disponibles pour le téléchargement public sur une plate-forme en ligne populaire accessible mondialement, par exemple.
L’étude, dirigée par Will Hawkins, étudiante au doctorat à l’OII, et acceptée pour publication à la conférence de l’équité, de la responsabilité et de la transparence (FACCT) de l’ACM, révèle que ces générateurs DeepFake ont été téléchargés près de 15 millions de fois depuis la fin 2022, ciblant principalement les femmes. Les données pointent vers une augmentation rapide de l’imagerie intime non consensuelle générée par l’AI (NCII).
Les principales conclusions comprennent:
- Échelle massive: près de 35 000 «variantes de modèle DeepFake» téléchargeables publiquement ont été identifiées. Ce sont des modèles qui ont été affinés pour produire des images profondes de personnes identifiables, souvent des célébrités. D’autres variantes cherchent à générer des individus moins importants, dont beaucoup sont basés sur les profils de médias sociaux. Ils sont principalement hébergés sur Civitai, une base de données ouverte populaire des modèles d’IA.
- Utilisation généralisée: les variantes du modèle DeepFake ont été téléchargées près de 15 millions de fois cumulativement depuis novembre 2022. Chaque variante téléchargée pourrait générer des images Deepfake illimitées.
- Ciblant massivement les femmes: une analyse détaillée a révélé que 96% des modèles DeepFake ont ciblé les femmes identifiables. Les femmes ciblées allaient de célébrités reconnues dans le monde entier aux utilisateurs de médias sociaux avec des suivants. Beaucoup des modèles Deepfake les plus populaires ciblent des individus de Chine, de Corée, du Japon, du Royaume-Uni et des États-Unis.
- Facilement créé: de nombreuses variantes de modèle DeepFake sont créées en utilisant une technique appelée adaptation à faible rang (LORA), nécessitant jusqu’à 20 images de l’individu cible, un ordinateur de base et 15 minutes de temps de traitement.
- Destiné à générer NCII: de nombreux modèles portent des balises telles que « porno », « sexy » ou « nues » ou des descriptions signalant l’intention de générer des images intimes non consensibles (NCII), malgré de telles utilisations violant les conditions de service des plateformes d’hébergement et étant illégaux dans certains pays, y compris le Royaume-Uni.
« Il existe un besoin urgent de garanties techniques plus robustes, de politiques de plate-forme plus claires et plus proactivement appliquées et de nouvelles approches réglementaires pour lutter contre la création et la distribution de ces modèles d’IA nocifs », a déclaré Will Hawkins, auteur principal de l’étude.
Le partage d’images Deepfake sexuellement explicites a été provoquée par une infraction pénale en Angleterre et au Pays de Galles en vertu d’un amendement à la loi sur la sécurité en ligne en avril 2023. Le gouvernement britannique espère également faire de la création de telles images une infraction dans le cadre de son projet de loi sur le crime et la police, qui est actuellement au stade du comité.
Les résultats peuvent être simplement la pointe de l’iceberg, avec cette analyse réalisée sur des modèles accessibles au public sur des plateformes réputées. Compte tenu du faible coût de création de ces modèles, un contenu plus flagrant profond – par exemple du matériel d’abus sexuel d’enfants – peut également être de plus en plus répandu mais pas publicisé ou hébergé sur les plateformes publiques.
L’étude, «Deepfakes à la demande: la montée des générateurs d’images DeepFake non consensuels accessibles» par Will Hawkins, Chris Russell et Brent Mitelstadt de l’Institut Internet d’Oxford, sera disponible en tant que pré-impression sur Arxiv à partir du 7 mai. Athènes, Grèce.