Si nous nous engageons pleinement avec le fonctionnement de l'IA génératif, nous pouvons toujours créer de l'art original

Si nous nous engageons pleinement avec le fonctionnement de l’IA génératif, nous pouvons toujours créer de l’art original

Même avant la récente manifestation d’un groupe de musiciens bien connus des plans du gouvernement britannique pour permettre aux entreprises de l’IA d’utiliser un travail protégé par le droit d’auteur pour la formation, l’inquiétude autour des droits des artistes augmentait déjà.

Début février, une lettre ouverte des artistes du monde entier a appelé la maison de vente aux enchères de Christie à annuler une vente d’art créée avec l’aide de l’IA générative (Genai). Il s’agit d’une forme d’intelligence artificielle qui crée du contenu, y compris du texte, des images ou de la musique – basée sur les modèles appris des ensembles de données colossaux.

Sans donner des exemples spécifiques, la lettre a suggéré que de nombreuses œuvres incluses dans la vente, qui étaient intitulées «renseignement augmenté», étaient «connues pour être formées sur des travaux protégés par le droit d’auteur sans licence» et ont suggéré que de telles ventes «incitent davantage le vol de masse des sociétés de l’IA du travail des artistes humains».

Si nous pensons à Dall-E, MidJourney et à la diffusion stable, qui utilisent tous des invites de texte pour générer des images et sont formées sur des ensembles de données récoltés à partir de sources en ligne, la lettre a soulevé des problèmes importants sur la nature de la créativité artistique et comment le concept juridique de «l’utilisation équitable» et d’originalité est appliqué dans de tels cas.

Ce sont des débats complexes, englobant les réticences vivaces sur l’automatisation des machines, la propriété intellectuelle (IP) et l’idéal chéri que l’ingéniosité et l’originalité restent le seul préserve de l’humanité.

Comment penser à l’intérieur de Genai

L’impact de l’IA sur les industries créatives est devenue un problème majeur au Royaume-Uni et ailleurs, à tel point que nous sommes confrontés à une question existentielle: comment comprendre l’impact évolutif de l’IA sur la créativité humaine aujourd’hui?

La portée de cette enquête révèle un fait simple: nous devons développer des moyens plus accessibles et inclusifs de penser dans les modèles de traitement d’image de l’IA. C’est exactement ce que mes dernières recherches, produites en collaboration avec l’artiste et photographe acclamé, Trevor Paglen, propose.

Comment, cette recherche demande, comprenons-nous mieux les mécanismes derrière la collation et l’étiquetage des ensembles de données utilisés pour former l’IA? Et comment, à son tour, pouvons-nous créer de nouvelles façons de comprendre dans quelle mesure les modèles de production d’images d’IA informent notre expérience dans le monde?

C’est, je soutiens, grâce au développement de méthodes de recherche interdisciplinaires qui s’appuient sur les arts et les sciences humaines que nous pouvons nous engager de manière critique avec ces préoccupations.

Bien que la lettre ouverte adressée à Christie ait fait allusion à ces sujets, il n’a peut-être pas observé sans surprise dans quelle mesure certains des artistes les plus importants de la vente d’intelligence augmentée s’étaient activement engagés dans la fourniture de méthodes visuelles et de perspicacité sur le fonctionnement du Genai.

Il est à noter que Holly Herndon et Mat Dryhurst’s Work XhairymutantX examinent comment les ensembles de données utilisés dans les modèles d’IA de production d’images définissent et transforment les images. Par exemple, si vous tapez le mot « Holly Herndon » dans MidJourney, il produira des images basées sur des ensembles de données dérivés de la présence en ligne de Herndon.

Pour attirer l’attention et perturber simultanément ce processus, les artistes ont généré leurs propres ensembles d’images et les ont étiquetés « Holly Herndon ». Les images de ces ensembles de données avaient déjà été manipulées pour souligner certaines qualités associées à Herndon (ses cheveux roux, par exemple). Une fois remis dans le modèle de traitement d’image de l’IA, les images qui ont suivi « Holly Herndon » sont devenues toujours plus bizarres et exagérées.

Cela montre clairement que le traitement d’image AI est une procédure très incohérente et sélective qui peut être manipulée avec facilité.

Si nous considérons comment les modèles de traitement d’image de l’IA sont utilisés dans la reconnaissance faciale et les technologies de drones – souvent avec des conséquences mortelles – c’est une préoccupation urgente.

Réfléchissant sur la photographie aérienne dans ses hallucinations de machines de travail – Iss Dreams, Artist and Data Visualization Pioneer Rebik Anandol a utilisé un ensemble de données de 1,2 million d’images rassemblées par la Station spatiale internationale (ISS). Parallèlement à d’autres images satellites de la Terre, il a produit une composition générée par l’AI.

L’utilisation de réseaux adversaires génératifs (GAN) – un modèle d’IA qui forme des réseaux de neurones à reconnaître, classer et, surtout, générer de nouvelles images – l’anandol a produit un paysage unique qui change avec le temps et ne semble jamais se répéter.

Dans ces deux exemples, les artistes ne se livrent pas simplement à un «vol de masse» ou à l’utilisation de modèles d’IA qui ont été formés sur de grands ensembles de données pour produire mécaniquement des images. Ils attirent explicitement l’attention sur la façon dont les ensembles de données utilisés pour former l’IA peuvent être à la fois stratégiquement modifiés et activement perturbés.

Dans notre récent livre (auquel j’ai contribué en tant que rédacteur en chef et auteur), Trevor Paglen, dont le travail n’était pas dans la vente de Christie, révèle comment les ensembles de données produisent régulièrement des allégories hallucinatrices inquiétantes de notre monde.

Étant donné que les Gans sont formés sur des ensembles de données spécifiques et ne ressentent pas le monde en tant que tels, ils en produisent souvent des versions hallucinatoires et étranges. Bien que souvent considérée comme une faute ou un problème dans le système, l’événement d’hallucination, comme le montre Paglen, est néanmoins central au Genai.

Dans des images telles que Rainbow, qui a été produite à l’aide d’un ensemble de données créé et étiqueté par Paglen, nous voyons une image fantomatique de notre monde qui révèle la mécanique intérieure et latente de la production d’images dans Gans.

La pratique de Paglen, aux côtés de celle de Dryhurst, Herndon et Anandol, définit une distinction claire entre les artistes qui utilisent avec désinvolture l’IA pour générer encore plus d’images et ceux qui étudient de manière critique la logique opératoire de l’IA. Cette dernière approche est précisément ce qui est nécessaire lorsqu’il s’agit de penser à Genai et de le rendre plus responsable en tant que technologie qui a évolué pour définir des aspects importants de notre vie.

Si nous permettons que le fonctionnement interne de l’IA soit opaque aux utilisateurs et aux programmeurs, il est d’autant plus crucial que nous explorons comment les pratiques artistiques – et les sciences humaines plus largement – peuvent nous encourager à penser de ces systèmes non comptables. Ce faisant, nous pourrions améliorer considérablement les niveaux de compréhension et d’engagement avec une technologie qui définit l’avenir et notre relation avec elle.