Les écoles sud-coréennes vivent un cauchemar. La technologie transforme ses étudiants en stars du porno
Parfois, nous ne sommes pas conscients des dangers impliqués par de nombreux outils logiciels qui apparaissent sous l’étiquette « gratuit ». Sans aller plus loin, en août dernier, une de ces applications à effet « wow » instantané est devenue virale : une application gratuite qui permettait de créer des deepfakes en temps réel. Le problème est que ce que vous imaginez comme un simple passe-temps ou un simple divertissement peut être une arme terrifiante entre d’autres mains. Nous connaissions les problèmes qui accompagnent les deepfakes, mais en Corée du Sud, cela a explosé.
Deepfake dans les écoles. Lorsqu'il a été annoncé que la police enquêtait sur des réseaux pornographiques deepfake dans deux universités sud-coréennes, la journaliste locale Ko Narin a décidé d'enquêter seule. Il y a quelques semaines, il a publié dans un rapport ce qu'il avait découvert : des dizaines de groupes de discussion sur Telegram où les utilisateurs partageaient des photos de femmes qu'ils savaient « transformées » en stars du porno grâce à des deepfakes.
Le travail de Narin a non seulement montré qu'il existait des discussions entre étudiants universitaires, mais aussi des salles privées dédiées aux instituts et même aux écoles avec des mineurs, certaines comptant jusqu'à 220 000 membres, des espaces virtuels appelés « salles d'humiliation » ou « salles d'amis d'amis » soumises à des restrictions. conditions d'accès strictes. Un rapport qui a choqué le pays, où tous les niveaux sont visés, en plus de l'application Telegram.
La première pierre Tout a commencé il y a plusieurs années. En 2020, alors que les autorités sud-coréennes poursuivaient un réseau de chantage qui obligeait les jeunes femmes à réaliser des vidéos sexuellement explicites que les téléspectateurs devaient payer pour les regarder, elles ont découvert quelque chose de plus trouble sur les réseaux sociaux : des images pornographiques sur lesquelles étaient attachés les visages d'autres personnes.
Les autorités ne savaient alors que faire de ces premières tentatives de deepfake pornographie. Finalement, l’Assemblée nationale a promulgué une loi aux termes vagues contre ceux qui l’avaient fabriqué et distribué. Cela n’a pas empêché une nouvelle vague de crimes utilisant la technologie de l’intelligence artificielle, la même qui, aujourd’hui et après plusieurs enquêtes, semble avoir formé toute une culture misogyne en ligne dans le pays.
Ce faisant, la place des femmes dans la société est une nouvelle fois remise en question.
Le dernier raid. La semaine dernière, la police nationale a déclaré qu'elle enquêtait sur 513 cas de pornographie deepfake dans lesquels les visages de vraies femmes et filles étaient superposés numériquement sur un corps à leur insu.
Cela représente une augmentation de 70 % des cas en seulement 40 jours depuis la dernière enquête, soulignant la lutte du pays pour contrôler l'utilisation de la technologie numérique pour abuser sexuellement des femmes et des filles.
Molka. Plusieurs années ont passé depuis que le terme populaire utilisé par les Sud-Coréens pour désigner l'enregistrement secret des corps des victimes, à la fois à l'aide de téléphones portables et de minuscules caméras cachées, est devenu connu. À tel point qu’en 2020, le président de la nation a reconnu que cela faisait « partie du quotidien » de la vie des citoyens. Selon les données de la police, en 2010, il y a eu environ 1 100 plaintes pour crimes « molka », et en 2018, il y avait 6 800 cas par an. Et si en 2006 le pourcentage de délits sexuels causés par les caméras espions était de 3,6%, en 2015 ils représentaient déjà près de la moitié des délits.
Le pays a constaté une augmentation des crimes sexuels, même s'il n'est pas clair dans quelle mesure cela était dû à une augmentation du nombre d'incidents ou au fait que les femmes coréennes étaient plus disposées à les signaler. Une combinaison des deux a été ciblée, le caractère numérique de la société y étant également très important : par exemple, lorsque les premiers téléphones équipés d'appareil photo ont commencé à être vendus au début des années 2000, les autorités ont obligé les fabricants à inclure dans la conception que, lorsque en démarrant un enregistrement, l’appareil émettrait des bruits perceptibles par les personnes présentes pour résoudre ce même problème.
Molka et Deepfake aujourd'hui. Plusieurs années se sont écoulées depuis ces reportages sur les crimes sexuels en ligne, et la seule chose qui semble s'être améliorée est la technologie permettant de diffuser les images. En fait, la technologie d’aujourd’hui est si sophistiquée qu’il est difficile pour les gens ordinaires de distinguer s’il s’agit de fausses images.
Alors que le pays lutte pour faire face à la menace, les experts ont noté qu'en Corée du Sud, l'enthousiasme pour les nouvelles technologies peut parfois l'emporter sur les préoccupations quant à leurs implications éthiques.
Misogynie. Quoi qu’il en soit, pour de nombreuses femmes, ces deepfakes ne sont que la dernière expression en ligne d’une misogynie profondément enracinée dans leur pays, une culture qui a désormais produit des jeunes hommes qui trouvent amusant de partager en ligne des images sexuellement humiliantes de femmes. Un effet qui a conduit ces dernières semaines des dizaines de femmes et d'adolescents de tout le pays à supprimer leurs photos des réseaux ou à désactiver directement leurs comptes, de peur d'être « les prochains ».
Lee Yu-jin, un étudiant dont l'université fait partie des centaines de collèges, lycées et universités dont les étudiants ont été victimes, a déclaré au New York Times que « la société coréenne ne traite pas les femmes comme des êtres humains ». La jeune femme se demande pourquoi le gouvernement n’a pas fait davantage « avant que la culture numérique ne consiste à voler des photos d’amis et à les utiliser à des fins d’humiliation sexuelle ».
Capitale Deepfake. Actuellement, la Corée du Sud détient le titre de pays le plus attaqué par la pornographie deepfake. Leurs chanteuses et actrices représentent 53 % des personnes qui apparaissent dans les deepfakes dans le monde, selon un rapport de 2023 de Security Hero, une startup américaine axée sur la protection contre le vol d'identité.
En parallèle, la police a ouvert une enquête sur Telegram et le régulateur des médias du pays envisage de s'entretenir avec des représentants de l'application de messagerie pour discuter d'une réponse commune au problème. En outre, le ministère de l'Éducation a annoncé la création d'un groupe de travail chargé d'enquêter sur les incidents survenus dans les écoles, d'enseigner aux enfants comment protéger leur image et de soutenir les victimes.
Tout est effort, c'est peu. En fait, selon le syndicat de la Fédération coréenne des enseignants, même les étudiants et les enseignants qui n'ont pas été directement concernés « éprouvent une peur et une anxiété extrêmes quant à la possibilité d'être utilisés pour des crimes sexuels ou diffusés en ligne à leur insu ».
Images | Andrew et Annemarie, Pixabay
À Simseo | Les nations du monde et leurs stéréotypes, vus par le Japon sur cette étonnante carte de 1932
À Simseo | La Corée du Sud envisage déjà que les filles puissent commencer l'école plus tôt. La raison : l’augmentation du taux de natalité