De nouvelles inquiétudes émergent de leur utilisation autour de l’invasion russe de l’Ukraine.

Les nouvelles technologies sont depuis longtemps utilisées comme armes contre les femmes. La solution implique tout le monde

Des images « deepfake » à caractère sexuel de Taylor Swift sont devenues virales sur les réseaux sociaux la semaine dernière, alimentant une condamnation généralisée de la part des Swifties, du grand public et même de la Maison Blanche.

Ce problème n’est pas nouveau. Swift est l’une des nombreuses célébrités et personnalités publiques, principalement des femmes, qui ont été victimes de deepfake pornographie ces dernières années. Des exemples très médiatisés attirent beaucoup l’attention des médias, mais la nature de plus en plus sophistiquée de l’IA signifie que n’importe qui peut désormais être ciblé.

Bien que les implications plus larges des deepfakes suscitent de sérieuses inquiétudes, il est important de se rappeler que la technologie n’est pas la meilleure. cause d’abus. C’est juste un autre outil utilisé pour le mettre en œuvre.

Deepfakes et autres médias manipulés numériquement

Les deepfakes sexuellement explicites de Swift sont apparus sur plusieurs plateformes de médias sociaux la semaine dernière, notamment X (anciennement Twitter), Instagram, Facebook et Reddit.

La plupart des grandes plateformes interdisent le partage de médias synthétiques et manipulés numériquement qui causent du tort, de la confusion ou de la tromperie, y compris la pornographie deepfake. Cela inclut les images créées par des moyens plus simples tels qu’un logiciel de retouche photo. Néanmoins, un deepfake représentant Swift a été vu 47 millions de fois sur une période de 17 heures avant d’être supprimé de X.

Il existe une longue histoire d’utilisation de technologies, d’applications et de services numériques pour faciliter la violence basée sur le genre, notamment le harcèlement sexuel, les agressions sexuelles, la violence domestique ou familiale, les abus dans les fréquentations, le harcèlement et la surveillance, ainsi que les discours de haine.

À ce titre, nous devrions également nous concentrer sur la lutte contre les normes et croyances problématiques en matière de genre qui sous-tendent souvent ces types d’abus.

L’émergence des deepfakes

Les origines des deepfakes remontent à novembre 2017, lorsqu’un utilisateur de Reddit appelé « deepfakes » a créé un forum et un logiciel de montage vidéo permettant aux utilisateurs d’entraîner leurs ordinateurs à échanger les visages d’acteurs pornographiques avec ceux de célébrités.

Depuis lors, il y a eu une expansion massive de sites Web et de fils de discussion dédiés aux deepfakes, ainsi que d’applications permettant de créer des deepfakes personnalisés gratuitement ou moyennant des frais.

Dans le passé, créer un deepfake convaincant nécessitait souvent beaucoup de temps et d’expertise, un ordinateur puissant et l’accès à plusieurs images de la personne ciblée. Aujourd’hui, presque tout le monde peut créer un deepfake, parfois en quelques secondes.

Les méfaits du deepfake porno

Toutes les applications d’images générées par l’IA ne sont pas nuisibles. Vous avez peut-être vu des deepfakes viraux amusants, comme les images du pape François dans une doudoune. Ou si vous regardez le dernier film d’Indiana Jones, vous verrez Harrison Ford « vieillir » de 40 ans grâce à l’IA.

Cela dit, les deepfakes sont souvent créés à des fins malveillantes, notamment la désinformation, la cyberintimidation, les abus sexuels sur des enfants, l’extorsion sexuelle et d’autres formes d’abus sexuels basés sur l’image.

Un rapport publié par la startup Home Security Heroes estime qu’il y avait 95 820 vidéos deepfake en ligne en 2023, soit une augmentation de 550 % depuis 2019.

Lorsqu’il s’agit de porno deepfake, les femmes en particulier sont ciblées de manière disproportionnée. Selon DeepTrace, 96 % de tous les deepfakes en ligne sont de fausses vidéos non consensuelles de femmes. Il s’agit pour la plupart (mais pas exclusivement) d’acteurs et de musiciens connus.

C’est préoccupant mais pas surprenant. La recherche montre que les abus en ligne affectent de manière disproportionnée les femmes et les filles, en particulier les femmes autochtones, les femmes issues de milieux migrants et les personnes lesbiennes, gays, bisexuelles, transgenres et intersexuées.

Les personnalités publiques sont particulièrement confrontées à des taux plus élevés d’abus en ligne, en particulier les femmes et les personnes de divers genres. Une étude a révélé que les célébrités sont davantage blâmées que les non-célébrités pour les abus qu’elles subissent en ligne, et ces abus sont souvent considérés comme moins graves.

La recherche montre que les abus basés sur l’image peuvent entraîner des préjudices importants pour les victimes, notamment de l’anxiété, de la dépression, des idées suicidaires, de l’isolement social et des atteintes à la réputation. Pour les personnalités publiques, les deepfakes et autres formes d’abus en ligne peuvent également entraîner une diminution des perspectives de carrière, un retrait de la vie publique et des conséquences négatives sur la santé mentale.

En 2016, les photos de la militante australienne et militante pour la réforme de la loi Noelle Martin ont été prises sur les réseaux sociaux et superposées à des images pornographiques. Martin a déclaré se sentir « physiquement malade, dégoûté, en colère, dégradé, déshumanisé » en conséquence. Des images modifiées numériquement et contrefaites de Martin continuent de circuler en ligne sans son consentement.

Répondre au porno deepfake

N’importe qui peut être ciblé par des deepfakes. Tout ce qu’il faut, c’est une image du visage de quelqu’un. Même des images de travail professionnelles peuvent être utilisées.

Même si la réforme du droit ne résoudra pas à elle seule ce problème socio-juridique, elle peut indiquer que le problème est pris au sérieux. Nous avons besoin de lois ciblant spécifiquement la pornographie deepfake non consensuelle.

En Australie, il existe des délits d’abus sexuels fondés sur l’image dans tous les États et territoires australiens, à l’exception de la Tasmanie, ainsi qu’au niveau fédéral. Cependant, seules certaines lois mentionnent spécifiquement les images modifiées numériquement (y compris les deepfakes).

Les entreprises technologiques pourraient également faire beaucoup plus pour détecter et modérer de manière proactive la pornographie deepfake. Ils doivent donner la priorité à l’intégration dès le départ d’approches « sécurité dès la conception » dans leurs services. Cela pourrait signifier :

  • concevoir et tester l’IA en gardant à l’esprit les utilisations abusives potentielles
  • utiliser des filigranes et d’autres indicateurs pour qualifier le contenu de synthétique
  • « inciter » les utilisateurs à s’abstenir de certains comportements (comme l’utilisation de fenêtres contextuelles pour leur rappeler l’importance du consentement).

La recherche montre qu’il existe des lacunes dans la compréhension du public des deepfakes et de la manière de les détecter. Cela souligne en outre la nécessité d’une culture numérique et d’une éducation sur la différence entre les utilisations consensuelles et non consensuelles d’images intimes, ainsi que sur les méfaits de la pornographie deepfake non consensuelle.

Enfin, et c’est peut-être le plus important, nous devons nous attaquer aux inégalités systémiques sous-jacentes qui contribuent aux abus facilités par la technologie contre les femmes et les personnes de diverses identités de genre. Cela inclut la reconnaissance du porno deepfake pour le problème souvent genré qu’il représente, aussi bien pour les célébrités que pour les non-célébrités.