Le juge américain soutient l'utilisation de livres protégés par le droit d'auteur pour former l'IA

Le juge américain soutient l'utilisation de livres protégés par le droit d'auteur pour former l'IA

Un juge fédéral américain s'est pris au côté de l'anthropique concernant la formation de ses modèles d'intelligence artificielle sur les livres protégés par le droit d'auteur sans la permission des auteurs, une décision avec le potentiel de créer un précédent juridique majeur dans le déploiement de l'IA.

Le juge du tribunal de district, William Alsup, a jugé lundi que la formation par la société de ses modèles Claude AI avec des livres achetés ou piratés a été autorisé en vertu de la doctrine de la « Fair Use » dans la loi américaine sur le droit d'auteur.

« L'utilisation des livres en cause pour former Claude et ses précurseurs était extrêmement transformatrice et était une utilisation équitable », a écrit Alsup dans sa décision.

« La technologie en cause était parmi les plus transformatrices que beaucoup d'entre nous verront de notre vie », a ajouté Alsup dans sa décision de 32 pages, comparant la formation d'IA à la façon dont les humains apprennent en lisant des livres.

Des quantités énormes de données sont nécessaires pour former de grands modèles de langage alimentant une IA générative.

Les musiciens, les auteurs de livres, les artistes visuels et les publications de nouvelles ont poursuivi diverses sociétés d'IA qui ont utilisé leurs données sans autorisation ni paiement.

Les entreprises d'IA défendent généralement leurs pratiques en réclamant une utilisation équitable, faisant valoir que la formation de l'IA sur de grands ensembles de données transforme fondamentalement le contenu original et est nécessaire à l'innovation.

« Nous sommes heureux que le tribunal ait reconnu que l'utilisation des œuvres pour former des LLM était transformatrice », a déclaré un porte-parole anthropique en réponse à une requête AFP.

La décision du juge est « conforme à l'objectif du droit d'auteur pour permettre la créativité et favoriser les progrès scientifiques », a ajouté le porte-parole.

Protection générale rejetée

La décision découle d'un recours collectif déposé par les auteurs Andrea Bartz, Charles Graeber et Kirk Wallace Johnson, qui a accusé Anthropic de copier illégalement leurs livres pour former Claude, le chatbot de l'IA de la société qui rivalise avec chatte.

Cependant, ALSUP a rejeté l'offre d'Anthropic pour la protection générale, jugeant que la pratique de la société de télécharger des millions de livres piratés pour construire une bibliothèque numérique permanente n'était pas justifiée par des protections à usage équitable.

En plus du téléchargement de livres à partir de sites Web offrant des œuvres piratées, Anthropic a acheté des livres protégés par des droits d'auteur, a scanné les pages et les a stockés en format numérique, selon des documents judiciaires.

L'objectif d'Anthropic était d'amasser une bibliothèque de « tous les livres du monde » pour former des modèles d'IA sur le contenu, comme jugeant, a déclaré le juge dans sa décision.

Alors que la formation des modèles d'IA sur le contenu piraté n'a posé aucune violation juridique, le téléchargement des copies piratées pour construire une bibliothèque à usage général a constitué une violation du droit d'auteur, indépendamment de l'utilisation éventuelle de la formation.

L'affaire procédera désormais à un procès sur des dommages-intérêts liés aux copies de la bibliothèque piratée, avec des pénalités potentielles, y compris des dommages financiers.

Anthropic a déclaré qu'il était en désaccord avec le procès sur cette partie de la décision et évaluait ses options juridiques.

Évalué à 61,5 milliards de dollars et fortement soutenu par Amazon, Anthropic a été fondée en 2021 par d'anciens dirigeants d'Openai.

La société, connue pour ses modèles Claude Chatbot et IA, se positionne comme axée sur la sécurité de l'IA et le développement responsable.