Nouvelle méthode pour bloquer l'apprentissage de l'IA de votre contenu en ligne
Une nouvelle technique développée par des chercheurs australiens pourrait arrêter l'apprentissage des systèmes d'intelligence artificielle non autorisée (IA) à partir de photos, d'œuvres d'art et d'autres contenus basés sur l'image.
Développé par CSIRO, l'Australie National Science Agency, en partenariat avec le Cyber Security Cooperative Research Center (CSCRC) et l'Université de Chicago, la méthode modifie subtilement le contenu pour le rendre illisible avec les modèles d'IA tout en restant inchangé à l'œil humain.
La percée pourrait aider les artistes, les organisations et les utilisateurs de médias sociaux à protéger leur travail et leurs données personnelles contre la formation de systèmes d'IA ou de créer des FAKED. Par exemple, un utilisateur des médias sociaux pourrait appliquer automatiquement une couche protectrice à ses photos avant de publier, empêchant les systèmes d'IA d'apprendre des fonctionnalités faciales pour la création de DeepFake. De même, les organisations de défense pourraient protéger l'imagerie satellite sensible ou les données cyber-menaces de l'absorption dans les modèles d'IA.
La technique fixe une limite à ce qu'un système d'IA peut apprendre du contenu protégé. Il offre une garantie mathématique que cette protection est valable, même contre les attaques adaptatives ou les tentatives de recyclage.
Le Dr Derui Wang, scientifique du CSIRO, a déclaré que la technique offre un nouveau niveau de certitude pour quiconque télécharge le contenu en ligne.
« Les méthodes existantes reposent sur des essais et des erreurs ou des hypothèses sur la façon dont les modèles d'IA se comportent », a déclaré le Dr Wang. « Notre approche est différente; nous pouvons garantir mathématiquement que les modèles d'apprentissage automatique non autorisés ne peuvent pas apprendre du contenu au-delà d'un certain seuil. C'est une sauvegarde puissante pour les utilisateurs de médias sociaux, les créateurs de contenu et les organisations. »
Le Dr Wang a déclaré que la technique pourrait être appliquée automatiquement à grande échelle.
« Une plate-forme de médias sociaux ou un site Web pourrait intégrer cette couche protectrice dans chaque image téléchargée », a-t-il déclaré. « Cela pourrait limiter la montée en puissance de Deep Fakes, réduire le vol de propriété intellectuelle et aider les utilisateurs à garder le contrôle de leur contenu. »
Bien que la méthode soit actuellement applicable aux images, il est prévu de l'étendre au texte, à la musique et aux vidéos.
La méthode est toujours théorique, avec des résultats validés dans un paramètre de laboratoire contrôlé. Le code est disponible sur GitHub à usage académique, et l'équipe recherche des partenaires de recherche dans des secteurs, notamment la sécurité et l'éthique de l'IA, la défense, la cybersécurité, le monde universitaire, etc.
L'article, «Exemples de données provablement non apprise», a été présenté au Symposium du réseau et de la sécurité du système distribué (NDSS 2025), où il a reçu le Distinguished Paper Award.
