Les tests montrent que les systèmes de génération d'images basés sur l'IA peuvent parfois générer des copies des données du formateur

Les tests montrent que les systèmes de génération d’images basés sur l’IA peuvent parfois générer des copies des données du formateur

Les modèles de diffusion mémorisent des exemples de formation individuels et les génèrent au moment du test. A gauche : une image de l’ensemble d’entraînement de Stable Diffusion (sous licence CC BY-SA 3.0). À droite : une génération de diffusion stable lorsque vous y êtes invité avec « Ann Graham Lotz ». La reconstruction est quasiment identique (distance `2 = 0,031). Crédit: arXiv (2023). DOI : 10.48550/arxiv.2301.13188

Une équipe d’informaticiens de Google, DeepMind, ETHZ, l’Université de Princeton et l’Université de Californie à Berkeley, a découvert que les systèmes de génération d’images basés sur l’IA peuvent parfois générer des copies d’images utilisées pour les former. Le groupe a publié un article décrivant les tests de plusieurs systèmes logiciels de génération d’images sur le arXiv serveur de préimpression.

Les systèmes de génération d’images tels que Stable Diffusion, Imagen et Dall-E 2 ont récemment fait la une des journaux en raison de leur capacité à générer des images haute résolution basées uniquement sur des invites en langage naturel. De tels systèmes ont été entraînés sur des milliers d’images comme modèles.

Dans ce nouvel effort, les chercheurs, dont certains font partie d’une équipe qui a créé l’un des systèmes, ont découvert que ces systèmes peuvent parfois commettre une erreur assez importante. Au lieu de générer une nouvelle image, le système recrache simplement l’une des images de ses données d’apprentissage. Cela arrive assez fréquemment – ils ont trouvé plus de 100 instances sur 1 000 retours d’images au cours de leurs efforts de test.

C’est un problème car les ensembles de données sont généralement extraits d’Internet et beaucoup sont protégés par des droits d’auteur. Au cours des tests, l’équipe a constaté qu’environ 35 % des images copiées comportaient des avis de droit d’auteur. Environ 65 % n’avaient pas d’avis explicite, mais semblaient appartenir à des images couvertes par les lois générales sur la protection des droits d’auteur.

Les chercheurs notent que la plupart des systèmes de génération d’images basés sur l’IA ont une étape de traitement au cours de laquelle du bruit est ajouté pour empêcher le retour d’images à partir d’ensembles de données, poussant le système à créer quelque chose de nouveau. Ils notent également que parfois un système ajoute du bruit à une image copiée, ce qui rend plus difficile de dire qu’il s’agit d’une copie.

L’équipe conclut que les producteurs de ces produits doivent ajouter une autre protection pour empêcher le retour des copies. Ils notent qu’un simple mécanisme de signalisation devrait faire l’affaire.