L’UE sait déjà comment protéger le droit d’auteur contre ChatGPT et d’autres IA. Et veut en faire une loi
L’UE a décidé d’ouvrir le melon et d’aborder dans sa nouvelle loi sur l’intelligence artificielle (IA) ce qui est probablement l’une des questions les plus épineuses dans le développement de ce type d’outils génératifs, tels que Midjourney, ChatGPT ou Stable Diffusion : l’utilisation de matériaux avec . L’actualité est intéressante à la fois pour ce qu’elle nous apprend sur les avancées réalisées autour du règlement lui-même et, surtout, sur le scénario qui s’ouvre s’il passe enfin du terrain des fuites journalistiques à la réalité législative. L’utilisation de documents protégés par le droit d’auteur pour former l’IA a déjà provoqué de violents affrontements entre créateurs et développeurs.
La nouvelle a déjà suscité l’attente.
Où est la loi ? avancé. C’est du moins ce qui ressort des dernières informations de Reuters, ou d’Euractiv, ce dernier média qui anticipait cette semaine que les députés européens seraient déjà parvenus à un accord politique provisoire sur un règlement qui se veut pionnier dans la régulation des L’IA dans le monde.
Le pacte aurait été conclu ce jeudi, même si le document pourrait encore subir des ajustements avant sa prochaine étape : le vote en commissions techniques, prévu le 11 mai. Euractiv glisse que la plénière est prévue pour la mi-juin. L’accord intervient après des années de travail. Après une étape de consultations et de discussions, la CE a commencé il y a près de deux ans à rédiger la norme AI dans le but de réglementer une technologie en plein essor et qui a acquis une popularité notable grâce au « pull » de ressources telles que OpenAI.
Des « Formations » plus transparentes. Voici une de vos clés. La loi prévoit que les entreprises qui développent l’IA générative, comme ChatGPT, doivent être transparentes sur une question fondamentale : l’utilisation de matériaux protégés par le droit d’auteur pour la formation de leurs algorithmes. L’exigence aurait été rédigée au cours des deux dernières semaines, selon Reuters, qui note que les membres du Parlement européen ont déjà convenu de transférer le projet à la phase de dialogue tripartite, avec les législateurs et les États membres.
L’exigence aurait été incluse grâce à un équilibre entre les membres du comité, dans lequel un veto sur l’utilisation de matériels protégés pour la formation à l’IA a même été levé. Contre les souhaits conservateurs d’une surveillance accrue et les fantasmes gauchistes de surréglementation, la chambre a trouvé un compromis solide qui réglementerait l’IA de manière proportionnée, protégerait les droits des citoyens, encouragerait l’innovation et stimulerait l’économie.Svenja Hahn, du groupe Renew Europe au sein de l’organisme communautaire.
Parce que c’est important? Parce que l’utilisation de matériel protégé par pour la formation à l’IA a déjà provoqué des frictions entre auteurs et développeurs. L’un des exemples les plus médiatisés a été réalisé en février par la populaire agence Getty, qui dénonçait Stable Diffusion aux États-Unis, estimant avoir copié 12 millions de ses images pour parfaire son modèle d’IA.
La société de technologie aurait utilisé le matériel de Getty, bien sûr, « sans autorisation … ni compensation ». Celle de l’agence n’est en tout cas pas la seule revendication qui va dans ce sens. The Verge glisse déjà que, si l’exigence est remplie, la loi pourrait entraîner des poursuites pour violation de .
Et au-delà du droit d’auteur ? Comme le détaille Euractiv, la loi sur laquelle les législateurs communautaires ont travaillé aborde d’autres questions tout aussi cruciales. Par exemple, les risques que peut représenter chaque IA, un enjeu clé que Margrethe Vestager, vice-présidente exécutive de la CE, a déjà glissé à son époque : « Plus elle est grande, plus la règle sera ferme et stricte. » Dans le règlement, cette philosophie serait incorporée dans un système de classification qui envisage divers niveaux de risque. Un autre de ses centres d’intérêt porte sur les manipulations « intentionnelles ».
Dans quel contexte la nouvelle arrive-t-elle ? Dans un fondamental, marqué par la popularité croissante des moteurs d’IA tels que ChatGPT ou Midjourney et l’effort des administrations pour réguler leurs dérivés. L’un des cas les plus récents est laissé par l’Italie, qui est venue bloquer ChatGPT dans le pays, considérant qu’elle collectait des données illégalement et manquait d’un système pour vérifier si ceux qui l’utilisaient étaient des mineurs. Sa décision a ouvert la voie à d’autres régulateurs, dont l’AEPD, l’Agence espagnole de protection des données, qui a décidé d’enquêter sur elle.
La nouvelle de la nouvelle loi intervient après que l’Italie a levé son veto grâce aux modifications appliquées par OpenAI dans son outil.