L’IA alimente une crise du deepfake porno en Corée du Sud. Qu’est-ce qui se cache derrière cela et comment y remédier ?
Il est difficile de parler d'intelligence artificielle sans parler de deepfake porn, un sous-produit nuisible de l'IA qui a été utilisé pour cibler tout le monde, de Taylor Swift aux écolières australiennes.
Mais un récent rapport de la startup Security Heroes a révélé que sur 95 820 vidéos pornographiques deepfake analysées à partir de différentes sources, 53 % présentaient des chanteuses et actrices sud-coréennes, ce qui suggère que ce groupe est ciblé de manière disproportionnée.
Alors, qu’est-ce qui se cache derrière le problème du deepfake en Corée du Sud ? Et que peut-on y faire ?
Adolescents et mineurs parmi les victimes
Les deepfakes sont des photos, des fichiers vidéo ou audio manipulés numériquement qui représentent de manière convaincante quelqu'un disant ou faisant des choses qu'il n'a jamais faites. Chez les adolescents sud-coréens, la création de deepfakes est devenue si courante que certains y voient même une farce. Et ils ne ciblent pas uniquement les célébrités.
Sur Telegram, des discussions de groupe ont été organisées dans le but spécifique de se livrer à des abus sexuels basés sur l'image des femmes, notamment des collégiennes et lycéennes, des enseignants et des membres de leur famille. Les femmes dont les photos sont publiées sur les réseaux sociaux tels que KakaoTalk, Instagram et Facebook sont également fréquemment ciblées.
Les auteurs utilisent des robots IA pour générer de fausses images, qui sont ensuite vendues et/ou diffusées sans discernement, ainsi que les comptes de réseaux sociaux, les numéros de téléphone et les noms d'utilisateur de KakaoTalk des victimes. Un groupe Telegram a attiré quelque 220 000 membres, selon un rapport du Guardian.
Un manque de sensibilisation
Bien que les violences basées sur le genre causent des préjudices importants aux victimes en Corée du Sud, il reste un manque de sensibilisation à ce sujet.
La Corée du Sud a connu une croissance technologique rapide au cours des dernières décennies. Il se classe au premier rang mondial en termes de possession de smartphones et est cité comme ayant la connectivité Internet la plus élevée. De nombreux emplois, notamment dans la restauration, l’industrie manufacturière et les transports publics, sont rapidement remplacés par les robots et l’IA.
Mais comme le souligne Human Rights Watch, les progrès du pays en matière d'égalité des sexes et d'autres mesures relatives aux droits humains n'ont pas suivi le rythme des progrès numériques. Et des recherches ont montré que les progrès technologiques peuvent en réalité exacerber les problèmes de violence sexiste.
Depuis 2019, les crimes sexuels numériques contre les enfants et les adolescents en Corée du Sud constituent un problème majeur, notamment en raison de l'affaire « Nth Room ». Cette affaire impliquait des centaines de jeunes victimes (dont beaucoup étaient mineures) et environ 260 000 participants engagés dans le partage de contenus intimes exploiteurs et coercitifs.
L’affaire a suscité une indignation généralisée et appelle à une protection renforcée. Cela a même conduit à l'établissement de conditions plus strictes dans la loi de 2020 sur les cas spéciaux concernant la répression des crimes sexuels. Mais malgré cela, le bureau du procureur suprême a déclaré que seulement 28 % des 17 495 délinquants sexuels numériques arrêtés en 2021 ont été inculpés, soulignant les défis actuels liés à la lutte efficace contre les crimes sexuels numériques.
En 2020, le groupe de travail sur les crimes sexuels numériques du ministère de la Justice a proposé une soixantaine de dispositions juridiques, qui n'ont toujours pas été acceptées. L'équipe a été dissoute peu après l'investiture du gouvernement du président Yoon Suk Yeol en 2022.
Lors de la campagne présidentielle de 2022, Yoon a déclaré « qu'il n'y avait pas de discrimination structurelle entre les sexes » en Corée du Sud et s'est engagé à abolir le ministère de l'Égalité des genres et de la Famille, le principal ministère chargé de prévenir les violences basées sur le genre. Ce poste est resté vacant depuis février de cette année.
La technologie peut-elle aussi être la solution ?
Mais l’IA n’est pas toujours nuisible – et la Corée du Sud en fournit également la preuve. En 2022, un centre numérique de soutien aux crimes sexuels géré par le gouvernement métropolitain de Séoul a développé un outil capable de suivre, surveiller et supprimer automatiquement les images et vidéos deepfakes 24 heures sur 24.
Cette technologie, qui a remporté le Prix de l'administration publique des Nations Unies 2024, a permis de réduire le temps nécessaire à la détection des deepfakes d'une moyenne de deux heures à trois minutes. Mais même si de telles tentatives peuvent contribuer à réduire davantage les dommages causés par les deepfakes, il est peu probable qu’elles constituent une solution exhaustive, car les effets sur les victimes peuvent être persistants.
Pour un changement significatif, le gouvernement doit demander aux fournisseurs de services tels que les plateformes de médias sociaux et les applications de messagerie de veiller à la sécurité des utilisateurs.
Des efforts unifiés
Le 30 août, le gouvernement sud-coréen a annoncé son intention de faire pression en faveur d’une législation criminalisant la possession, l’achat et la visualisation de deepfakes en Corée du Sud.
Cependant, les enquêtes et les procès pourraient continuer d’échouer jusqu’à ce que les deepfakes en Corée du Sud soient reconnus comme une forme néfaste de violence sexiste. Une approche multidimensionnelle sera nécessaire pour résoudre le problème du deepfake, notamment des lois plus strictes, des réformes et une éducation.
Les autorités sud-coréennes doivent également contribuer à sensibiliser le public à la violence sexiste et se concentrer non seulement sur le soutien aux victimes, mais aussi sur l’élaboration de politiques proactives et de programmes éducatifs visant à prévenir la violence en premier lieu.