Les outils de suppression d’abus sexuels basés sur l’image sont vulnérables aux attaques génératives d’IA, révèle une étude
Une équipe de chercheurs du Département de sécurité de l'information de Royal Holloway, Université de Londres, a mis en évidence les risques majeurs liés à la vie privée dans les technologies conçues pour aider les gens à supprimer définitivement les images d'abus sexuels basés sur des images (IBSA), telles que les images intimes non consensuelles, du Internet.
Ces résultats, publiés dans Sécurité et confidentialité IEEErévèlent comment les techniques actuellement utilisées pour identifier et supprimer les contenus abusifs peuvent être attaquées avec l'IA générative, mettant potentiellement en danger les utilisateurs vulnérables.
L'équipe de recherche s'est concentrée sur le « hachage perceptuel » : une méthode qui crée des « empreintes numériques » d'images pour détecter le contenu nuisible sans stocker ni distribuer les fichiers originaux. La plupart des plateformes en ligne (en particulier les sites de réseaux sociaux) conservent une liste de hachages d'images abusives connues, permettant la détection et la prévention des copies re-téléchargées.
De plus, des outils tels que « Take It Down » gérés par le Centre national pour les enfants disparus et exploités (NCMEC) permettent aux utilisateurs de déclarer eux-mêmes l'IBSA en un seul endroit. Pour cela, les utilisateurs peuvent télécharger des hachages perceptuels d’images, qui sont ensuite partagés avec des plateformes partenaires telles que Facebook et OnlyFans.
Cependant, l'article récemment publié démontre que les hachages perceptuels ne sont pas aussi irréversibles que prévu, ce qui compromet les garanties de confidentialité revendiquées par les outils de suppression d'IBSA sur leurs pages FAQ.
Dirigé par Sophie Hawkes, Ph.D. chercheur du Département de la sécurité de l'information, l'équipe de recherche a examiné quatre fonctions de hachage perceptuelles largement utilisées, notamment le PDQ Hash de Facebook (utilisé par « Take It Down ») et NeuralHash d'Apple, et a constaté qu'elles sont toutes vulnérables aux attaques d'inversion.
Plus précisément, il est devenu clair que l’utilisation contradictoire de l’IA générative pourrait reconstruire approximativement l’image originale. Hawkes explique : « Nos résultats remettent en question l'hypothèse selon laquelle les hachages perceptuels suffisent à eux seuls à garantir la confidentialité des images, mais les hachages perceptuels devraient plutôt être traités de manière aussi sécurisée que les images originales. »
Ceci est particulièrement préoccupant compte tenu de la nature sensible du contenu de l’IBSA et des groupes d’utilisateurs vulnérables que ces outils visent à protéger. Les co-auteurs, le Dr Maryam Mehrnezhad (Royal Holloway) et le Dr Teresa Almeida (Université de Lisbonne), déclarent : « Les méfaits des technologies modernes peuvent se déployer de manière complexe. Bien que les risques d'IBSA ne se limitent à aucun groupe démographique, certains groupes tels que les enfants peuvent courir un plus grand risque, notamment des dommages psychologiques et un danger pour leur sécurité. Par conséquent, la conception d'outils sécurisés et sûrs est essentielle pour faire face à ces risques.
Les chercheurs affirment que la conception actuelle de services tels que « Take It Down » est insuffisante et soulignent la nécessité de mesures de protection des données plus strictes, par exemple en utilisant des protocoles cryptographiques tels que Private Set Intersection (PSI). En utilisant PSI, il serait possible d'activer une correspondance de hachage sécurisée sans exposer de données sensibles. Cela garantirait une solution plus axée sur la confidentialité pour supprimer les contenus préjudiciables et protéger les utilisateurs vulnérables.
Cependant, les chercheurs conseillent actuellement aux utilisateurs d’examiner attentivement les risques de hachage perceptuel et de prendre une décision éclairée lors de la soumission d’un rapport. En particulier, les utilisateurs doivent prendre en compte à la fois le risque que les images soient publiées en ligne et le risque que les images soient reconstruites à partir des valeurs de hachage déclarées.
Même s’il n’y a pas de perte significative de confidentialité lors du signalement de hachages d’images déjà partagées en ligne, le signalement proactif d’images peut poser problème.
Suite à des procédures de divulgation responsable, les chercheurs ont alerté le NCMEC de leurs conclusions, exhortant les fournisseurs de services à donner la priorité à la mise en œuvre de solutions plus sécurisées pour garantir la confidentialité des utilisateurs.
De plus, les chercheurs plaident pour une plus grande transparence, afin que les utilisateurs puissent prendre une décision éclairée sur le compromis entre leur vie privée et leur sécurité lorsqu'ils décident d'utiliser ou non les outils de reporting IBSA basés sur le hachage perceptuel.
Le co-auteur, le Dr Christian Weinert, du Département de la sécurité de l'information, conclut : « Les travaux futurs dans ce domaine nécessiteront des efforts de collaboration impliquant les concepteurs de technologies, les décideurs politiques, les forces de l'ordre, les éducateurs et, plus important encore, les victimes et les survivants de l'IBSA pour créer une meilleure solution. des solutions pour tous. »