Glaçage de démonstration Ai 2

Cette application aide les artistes à empêcher que leurs œuvres finissent par former des IA comme DALL-E et Stable Diffusion

Certaines œuvres générées avec des applications d’intelligence artificielle (IA) telles que DALL E, Stable Diffusion et Midjourney ont été lauréates de concours créatifs. Le problème est que dans certains cas le jury a pensé qui était récompenser le travail des personnes et non à partir d’un ensemble d’algorithmes bien entraînés.

Nous sommes témoins de la façon dont l’IA présente des opportunités et des défis dans une grande variété de domaines, l’un d’eux étant le domaine artistique. En ce sens, des chercheurs de l’Université de Chicago ont présenté une application intéressante qui prétend protéger les œuvres créatives faites par les gens.

Glaze, un outil qui pourrait plaire à de nombreux artistes

L’application développée par le professeur d’informatique Ben Zhao et ses élèves a été baptisé Glaze. Cependant, pour savoir comment cela fonctionne, il est nécessaire de se rappeler comment les imageurs IA sont formés. Ces systèmes, bien qu’ils reçoivent un rapideavec des invites, ne créez pas d’œuvres « à partir de rien ».

Comme nous l’avons mentionné au milieu de l’année dernière, ils travaillent avec d’énormes ensembles de données contenant des images protégées par le droit d’auteur. Cette formation est la base pour que les modèles génératifs fonctionnent, c’est-à-dire qu’ils ont un point de départ pour faire leur travail. Maintenant, cela inquiète également de nombreux artistes.

L’épicentre du problème n’est pas seulement le fait que leurs œuvres sont utilisées pour générer de nouvelles œuvres dans des applications souvent payantes, mais ils imitent son style. Certains artistes, selon ARTnewsils ont été surpris de voir LensaAI créer des images avec ce qui pourrait être leurs signatures.

Création originale de l’artiste Karla Ortiz (à gauche), création créée par un modèle d’IA (au centre) et création réalisée par une IA après avoir masqué l’art original (à droite)

Selon LensaAI, l’IA générative de l’application imite des peintures et invente des signatures, mais ce ne sont pas de véritables signatures de personnes. Quelle que soit la situation, il y a des artistes qui veulent empêcher leurs œuvres de s’adapter en formant des modèles d’IA. Pour eux, l’application que nous avons mentionnée ci-dessus entre en jeu, Glaze.

Alors, comment ça marche? Imaginons qu’un artiste veuille protéger ses créations publiées en ligne. Rien n’empêcherait que par des techniques de grattage Web si je travaille fini par faire partie d’un base de données. Cependant, une alternative peut être que cette artiste passe ses œuvres à travers l’outil créé par les chercheurs avant de les publier.

Glaçure Ia Protection Oeuvres D'art 1

Comment fonctionne Glaze

Glaze, expliquent-ils, ajoute de petits changements à l’œuvre d’art originale. Ce sont des modifications qui ne sont pas visibles à l’œil humain, mais qui empêchent les modèles d’IA de pouvoir reproduire leur création. Prenons un exemple fourni par les chercheurs. En haut de l’image, nous voyons une création qui n’a pas été protégée par Glaze.

Le modèle génératif Stable Diffusion choisi pour ce test apprend avec succès le style artistique. En bas, cependant, nous voyons comment l’image a été soumise à Glaze et le modèle ne peut pas atteindre son objectif. Il collecte des données, oui, mais dans un « style » complètement différent de celui de l’artiste d’origine.

Résoudre le talon d'Achille de l'intelligence artificielle : pourquoi ils ne peuvent pas dessiner des mains humaines

Pour l’instant, nous devons attendre pour utiliser Glaze. Ses créateurs annoncent qu’ils publieront des versions pour Mac et Windows dans « les prochaines semaines ». Ils promettent également que l’outil sera totalement gratuit. Si vous êtes l’un de ceux qui souhaitent l’essayer, vous pouvez voir les nouvelles sur la page dédiée au projet de l’Université de Chicago.

Images : Université de Chicago

A Simseo : Nous avons testé le nouveau Bing avec la version améliorée de ChatGPT : Google a raison de paniquer