Une étude révèle les vulnérabilités du filigrane du contenu généré par l'IA

Une étude révèle les vulnérabilités du filigrane du contenu généré par l’IA

Avec l’avènement de LensaAI, ChatGPT et d’autres modèles d’apprentissage automatique génératifs très performants, Internet est désormais de plus en plus saturé de textes, d’images, de logos et de vidéos créés par l’intelligence artificielle (IA). Ce contenu, largement appelé contenu généré par l’IA (AIGC), peut souvent être facilement confondu avec du contenu créé par des humains ou par tout autre modèle informatique.

L’utilisation croissante de modèles d’IA génératifs a ainsi ouvert des questions clés liées à la propriété intellectuelle et au droit d’auteur. En fait, de nombreuses entreprises et développeurs sont mécontents de l’utilisation commerciale généralisée du contenu généré par leurs modèles et ont ainsi introduit des filigranes pour réguler la diffusion de l’AIGC.

Les filigranes sont essentiellement des motifs ou des marques caractéristiques qui peuvent être placés sur des images, des vidéos ou des logos pour clarifier qui les a créés et qui détient leurs droits d’auteur. Bien que les filigranes soient largement utilisés depuis des décennies, leur efficacité pour réglementer l’utilisation de l’AIGC n’a pas encore été vérifiée.

Des chercheurs de l’Université technologique de Nanyang, de l’Université de Chongqing et de l’Université du Zhejiang ont récemment mené une étude explorant l’efficacité du filigrane comme moyen de prévenir la diffusion indésirable et non attribuée de l’AIGC. Leur article, publié sur le serveur de pré-impression arXivdécrit deux stratégies qui pourraient facilement permettre aux attaquants de supprimer et de falsifier des filigranes sur AIGC.

« Récemment, l’AIGC a été un sujet brûlant dans la communauté », a déclaré Guanlin Li, co-auteur de l’article, à Tech Xplore. « De nombreuses entreprises ajoutent des filigranes à AIGC pour protéger la propriété intellectuelle ou restreindre l’utilisation illégale. Un soir, nous avons discuté de la possibilité d’explorer un nouveau filigrane avancé pour les modèles génératifs. Je viens de dire, hé, pourquoi ne pas attaquer les systèmes de filigrane existants ? Si nous pouvons En supprimant le filigrane, certains AIGC illégaux ne seront pas traités comme générés par l’IA. Ou si nous introduisons un filigrane dans du contenu du monde réel, ils pourraient être traités comme générés par l’IA. Cela pourrait provoquer beaucoup de chaos sur Internet.

Dans le cadre de leur étude, Li et ses collègues ont démontré une stratégie informatique permettant d’effacer ou de falsifier des filigranes dans les images générées par des modèles d’IA. Une personne utilisant cette stratégie collecterait essentiellement d’abord des données auprès d’une société d’IA cible, d’une application ou d’un service de génération de contenu, puis utiliserait un modèle de débruitage accessible au public pour « purifier » ces données.

Une étude révèle les vulnérabilités du filigrane du contenu généré par l'IA

Enfin, l’utilisateur devra former un réseau contradictoire génératif (GAN) en utilisant ces données purifiées. Les chercheurs ont découvert qu’après formation, ce modèle basé sur le GAN pouvait réussir à supprimer ou à falsifier le filigrane.

« L’idée derrière notre étude est assez simple », a expliqué Li. « Si nous voulons identifier le contenu filigrané, la distribution du contenu filigrané doit être différente de celle d’origine. Sur cette base, si nous pouvons apprendre une projection entre ces deux distributions, nous pourrons supprimer ou falsifier un filigrane. »

Lors des premiers tests, Li et ses collègues ont constaté que la stratégie identifiée était très efficace pour supprimer et forger des filigranes à partir de diverses images générées par un service de génération de contenu basé sur l’IA. Leurs travaux mettent ainsi en évidence les vulnérabilités et, par conséquent, l’impossibilité pratique de l’utilisation du filigrane pour faire respecter les droits d’auteur de l’AIGC.

« Il n’est pas surprenant que les systèmes de filigrane avancés puissent être facilement supprimés ou falsifiés si l’adversaire dispose d’informations complètes sur les systèmes de filigrane, mais il est surprenant que même si nous n’avons que du contenu filigrané, nous soyons toujours capables de le faire », a déclaré Li. .

« D’un autre côté, notre méthode est basée sur la distribution de données, ce qui indique que les systèmes de tatouage existants ne sont pas sécurisés. Pour être honnête, je ne veux pas que notre travail devienne une menace réelle, car cela nous rendent incapables de gouverner les modèles génératifs. Personnellement, j’espère que cela inspirera d’autres à concevoir des systèmes de tatouage plus avancés pour se défendre contre nos attaques.

Les récents travaux de cette équipe de chercheurs pourraient bientôt inciter les entreprises et développeurs spécialisés en IA générative à développer des approches de watermarking plus avancées ou des approches alternatives mieux adaptées pour prévenir la diffusion illégale d’AIGC. Inspirés par leurs propres découvertes, Li et ses collègues tentent désormais également de développer certaines de ces approches.

« Nous étudions actuellement principalement de nouveaux schémas de filigrane pour les modèles génératifs, non seulement pour les techniques de génération d’images, mais également pour d’autres modèles », a ajouté Li.