Les outils de protection de l'art AI laissent toujours les créateurs en danger, disent les chercheurs
Les artistes ont de toute urgence ont besoin de défenses plus fortes pour protéger leur travail contre les modèles d'IA sans leur consentement.
Dites donc une équipe de chercheurs qui ont découvert des faiblesses importantes dans deux des outils de protection artistique les plus utilisés par les artistes pour protéger leur travail.
Selon leurs créateurs, Glaze et Nightshade ont tous deux été développés pour protéger les créatifs humains contre les utilisations invasives de l'IA générative.
Les outils sont populaires auprès des artistes numériques qui souhaitent arrêter les modèles d'IA (comme la diffusion stable du générateur d'art AI) de copier leurs styles uniques sans consentement. Ensemble, Glaze et Nightshade ont été téléchargés près de 9 millions de fois.
Mais selon un groupe international de chercheurs, ces outils ont des faiblesses critiques qui signifient qu'ils ne peuvent pas empêcher de manière fiable des modèles d'IA de s'entraîner sur le travail des artistes.
Les outils ajoutent des distorsions subtiles et invisibles (appelées perturbations d'empoisonnement) aux images numériques. Ces « poisons » sont conçus pour confondre les modèles d'IA pendant l'entraînement. Glaze adopte une approche passive, entravant la capacité du modèle d'IA à extraire les caractéristiques stylistiques clés. Nightshade va plus loin, corrompant activement le processus d'apprentissage en faisant en sorte que le modèle d'IA associe le style d'un artiste à des concepts non liés.
Mais les chercheurs ont créé une méthode – appelée Lightshed – qui peut contourner ces protections. Lightshed peut détecter, rétro-ingénieur et éliminer ces distorsions, enlevant efficacement les poisons et rendant les images utilisables à nouveau pour une formation génératrice du modèle d'IA.
Il a été développé par des chercheurs de l'Université de Cambridge avec des collègues de l'université technique Darmstadt et de l'Université du Texas à San Antonio. Les chercheurs espèrent qu'en faisant connaître leur travail – qui sera présenté au Symposium de sécurité de l'USENIX à Seattle en août – ils peuvent faire savoir aux créatifs qu'il y a des problèmes majeurs avec les outils de protection de l'art.
Lightshed fonctionne à travers un processus en trois étapes. Il identifie d'abord si une image a été modifiée avec des techniques d'empoisonnement connues.
Dans une seconde étape de l'ingénierie inverse, il apprend les caractéristiques des perturbations à l'aide d'exemples empoisonnés accessibles au public. Enfin, il élimine le poison pour restaurer l'image à sa forme originale et non protégée.
Dans les évaluations expérimentales, Lightshed a détecté des images protégées par la nuit avec une précision de 99,98% et a effectivement supprimé les protections intégrées de ces images.
« Cela montre que même lorsque vous utilisez des outils comme Nightshade, les artistes sont toujours en danger que leur travail soit utilisé pour la formation de modèles d'IA sans leur consentement, » a déclaré le premier auteur Hanna Foerster du Département d'informatique et de technologie de Cambridge, qui a mené les travaux lors d'un stage à Tu Darmstadt.
Bien que Lightshed révèle de graves vulnérabilités dans les outils de protection de l'art, les chercheurs soulignent qu'il a été développé non pas comme une attaque sur eux, mais plutôt comme un appel à l'action urgent pour produire des meilleurs et plus adaptatifs.
« Nous voyons cela comme une chance de co-évoluer les défenses, » dit le co-auteur du professeur Ahmad-Reza Sadeghi de l'Université technique de Darmstadt. « Notre objectif est de collaborer avec d'autres scientifiques dans ce domaine et de soutenir la communauté artistique dans le développement d'outils qui peuvent résister aux adversaires avancés. »
Le paysage de l'IA et de la créativité numérique évolue rapidement. En mars de cette année, Openai a déployé un modèle d'image Chatgpt qui pourrait instantanément produire des œuvres d'art dans le style de Studio Ghibli, le studio d'animation japonais.
Cela a déclenché un large éventail de mèmes viraux – et des discussions tout aussi larges sur l'image du droit d'auteur, dans laquelle les analystes juridiques ont noté que le studio Ghibli serait limité dans la façon dont il pourrait réagir à cela, car la loi sur le droit d'auteur protège l'expression spécifique, pas une artistique spécifique « style. »
Après ces discussions, OpenAI a annoncé des garanties rapides pour bloquer certaines demandes d'utilisateurs pour générer des images dans les styles d'artistes vivants.
Mais les questions sur l'IA génératrice et le droit d'auteur sont en cours, comme le souligne l'affaire de violation du droit d'auteur et de marque en cours en cours en tête de la Haute Cour de Londres.
L'agence mondiale de photographie Getty Images allègue que l'IA de la société d'IA basée à Londres a formé son modèle de génération d'images sur les énormes archives d'images protégées par le droit d'auteur de l'agence. La stabilité AI combat la réclamation de Getty et arguant que l'affaire représente un « menace manifeste » à l'industrie de l'IA génératrice.
Et plus tôt ce mois-ci, Disney et Universal ont annoncé qu'ils poursuivaient la firme IA MidJourney sur son générateur d'images, qui, selon les deux sociétés « Pit de plagiat sans fond. »
« Ce que nous espérons faire avec notre travail, c'est de mettre en évidence le besoin urgent d'une feuille de route vers des stratégies de protection plus résilientes et centrées sur l'artiste, » dit Foerster. « Nous devons faire savoir aux créatifs qu'ils sont toujours à risque et collaborer avec d'autres pour développer de meilleurs outils de protection de l'art à l'avenir. »