chat

Les artistes en ont assez des IA génératives qui volent leurs œuvres. Alors ils les empoisonnent

Getty Images a poursuivi Stability AI – responsable de Stable Diffusion – il y a des mois. La célèbre agence d’image avait détecté qu’une partie de son catalogue avait été utilisée pour entraîner ce modèle d’IA générative, et a déclenché un débat qui nous a accompagné toute l’année. Cette demande n’a pas été d’une grande utilité jusqu’à présent, c’est pourquoi les artistes ont choisi une autre voie. Une solution beaucoup plus ingénieuse.

morelle noire. C’est le nom du nouvel outil créé par un groupe d’universitaires dans le cadre d’une étude récente. Grâce à lui, les artistes peuvent « empoisonner » leurs œuvres de sorte que si quelqu’un les utilise pour entraîner leurs modèles d’IA génératifs, les images générées ultérieurement par ces modèles ne répondent pas aux invites des utilisateurs.

glaçage. Ben Zhao, professeur à l’Université de Chicago, est responsable à la fois du développement précédent et de Glaze, un autre outil qui permet aux artistes de « masquer » leur style personnel pour éviter qu’il ne soit plagié par les IA génératives. Dans ce cas, l’outil modifie les pixels des images d’une manière très subtile et invisible à l’œil humain. Néanmoins, cela permet de manipuler les modèles d’apprentissage automatique afin qu’ils interprètent l’image comme quelque chose de différent de ce qui est réellement affiché.

Corrompre l’art pour le sauver. Ces outils profitent du fait que ces modèles d’IA sont entraînés avec de gigantesques quantités de données. Les images auxquelles ces outils sont appliqués finissent par brouiller ces processus de formation. Les artistes peuvent ainsi mettre en ligne leurs œuvres et les protéger contre d’éventuelles entreprises qui les utilisent pour former leurs modèles.

Tu demandes un chat et il crée un chien pour toi. Avec Nightshade et Glaze, vous faites agir les modèles de manière défectueuse : lorsque vous leur demandez un chat, ils peuvent créer un chien, et lorsque vous leur demandez une voiture, ils peuvent générer une vache. L’étude montre comment les modèles corrompus font des choses qu’ils ne devraient pas faire, ce qui nuit à leur utilisation. Supprimer des images modifiées est très difficile, car les entreprises qui finissent par les utiliser doivent les rechercher et les supprimer de manière indépendante.

Mais cela crée d’autres problèmes.. Ces outils pourraient être utilisés à des fins malveillantes, mais selon Zhao, pour y parvenir, il faudrait des milliers d’images corrompues et des modèles très puissants. Les experts préviennent cependant qu’il est nécessaire de mettre en œuvre des défenses à la fois pour ces outils et pour les grands modèles capables de collecter des images sans autorisation d’être entraînés.

On ne sait toujours pas comment les IA sont entraînées. Ces outils sont un autre symptôme du problème rencontré avec l’IA générative. ChatGPT et Stable Diffusion et leurs alternatives ont été formés sur de grandes quantités de données, mais il n’est pas clair avec certitude quels auteurs et artistes pourraient voir leur travail utilisé pour ces processus. Les demandes et les critiques se multiplient, et cette bataille unique entre ceux qui proposent ces modèles et les créateurs de contenu ne semble pas avoir de solution simple.