Acte IA : le Parlement européen réfléchit à un groupe de suivi
Après la publication au Journal officiel de l'Union européenne du règlement sur l'intelligence artificielle, qui entrera en vigueur le 1er août 2024, le Parlement européen évalue la création d’un groupe de suivi pour sa mise en œuvrecomme le rapportent Eliza Gkritsi et Théophane Hartmann d'Euractiv.

Les députés ont exprimé leurs inquiétudes quant à l'approche de la Commission européenne concernant les tâches clés. Brando Benifeiancien rapporteur sur le règlement, a annoncé son intention d'établir formellement un groupe de suivi parlementaire, dans lequel il compte jouer un rôle de premier plan. Benifei a mis en garde contre les risques potentiels si la Commission n'applique pas correctement le règlement, notamment en ce qui concerne les dispositions en matière de transparence.
Certains députés ont exhorté la Commission à impliquer la société civile dans l'élaboration de codes de conduite pour l'IA générique, plutôt que de permettre aux entreprises de les rédiger elles-mêmes, en obtenant l'assurance que ces dernières seront pleinement impliquées dans l'élaboration. Benifei fera pression pour cela des experts indépendants président des groupes de travail au sein de l’AI Office, limitant ainsi l’influence des grandes entreprises.
Le dialogue entre l’US AI Safety Institute et l’European AI Office
Le 11 juillet 2024, des responsables américains et européens ont lancé un dialogue technique entre le Bureau européen de l'IA et l'US AI Safety Institute à Washington DC. Ce dialogue vise à intensifier la collaboration bilatérale sur l'intelligence artificielle et à promouvoir l'échange d'informations scientifiques. La discussion, animée par la directrice de l’US AI Safety Institute, Elizabeth Kelly, et la directrice du European AI Bureau, Lucilla Sioli, s’est concentrée sur trois thèmes principaux : filigrane et authentification de contenu synthétique, infrastructure informatique gouvernementale et IA pour le bien socialnotamment la modélisation météorologique.
Le dialogue comprenait des séances avec des universitaires, des représentants de la société civile et des experts gouvernementaux de divers ministères et agences. Les deux institutions ont exprimé leur intérêt pour l’exploration des meilleures pratiques en matière de filigrane et de provenance du contenu, pour la promotion de ces outils et pour l’avancement des échanges scientifiques sur la sécurité de l’IA. Ils ont réitéré leur ambition commune de développer un réseau international pour faire progresser la science de la sécurité de l’IA, comme discuté lors du Sommet sur l’IA de Séoul.
Meta a des problèmes avec les lois européennes
Tel que rapporté par Ina Fried, correspondante technologique en chef chez Axios, Meta a annoncé que n’acceptera pas son prochain modèle d’IA multimodal et ses futurs modèles de clients de l’UE en raison de l’incertitude réglementaire. L'entreprise fait état de préoccupations concernant le respect du RGPD (mais pas de la loi sur l'IA) lors de l'utilisation des données des utilisateurs européens pour entraîner les modèles. Meta avait déjà informé plus de 2 milliards d'utilisateurs de l'UE de son intention d'utiliser les publications publiques pour la formation de modèles, offrant une option de désinscription. Bien qu’elle ait informé à l’avance les régulateurs européens, Meta affirme avoir reçu peu de retours. La société publiera toujours une version plus grande, en texte uniquement, de Llama 3 dans l'UE.
Cependant, le rejet de la version multimodale pourrait empêcher les entreprises européennes d’utiliser ces modèles, même sous licence ouverte, et pourrait avoir un impact sur les entreprises non européennes proposant des services en Europe qui les utilisent.
Meta prévoit de lancer le modèle multimodal au Royaume-Uni, où des lois similaires sur la protection des données existent, citant peu de problèmes réglementaires.
Le rôle des autorités de protection des données dans la loi AI
Le Comité européen de la protection des données (EDPB) a publié une déclaration soulignant que la législation européenne en matière de protection des données doit être considérée comme complémentaire et renforcée réciproquement. L’EDPB souligne les problèmes potentiels de surveillance et de coordination découlant de la désignation d’autorités nationales compétentes dans des domaines étroitement liés à la protection des données à caractère personnel.
La déclaration recommande un rôle de premier plan aux autorités de protection des données (APD) dans le nouveau cadre d’application, citant leur expérience et leur expertise dans les questions liées à l’IA. L’EDPB suggère que la désignation d’autorités de protection des données en tant qu’autorités de surveillance du marché (AMS) serait bénéfique pour les parties prenantes, dans la mesure où cela fournirait un point de contact unique. L'EDPB recommande aux États membres de désigner des autorités de protection des données comme autorités de surveillance du marché pour les systèmes d'IA à haut risque visés à l'article 74, paragraphe 8, de la loi.
Responsabilités du Bureau de l'IA
Kai Zenner, chef de bureau et conseiller en politique numérique du député européen Axel Voss au Parlement européen, a publié un article de blog soulignant leet 130 responsabilités attribuées au Bureau de l'IA par la loi sur l'IA. Ces responsabilités sont divisées en quatre grandes catégories :
1) 39 tâches pour établir un système de gouvernance de l'IA, à mettre en œuvre entre le 21 février 2024 et le 2 août 2026 ;
2) 39 textes de droit dérivé, dont des actes délégués, des actes d'exécution, des lignes directrices, des modèles, des codes de bonnes pratiques, des codes de conduite et un appel à la normalisation – dont certains ont des délais clairs, tandis que d'autres sont à la discrétion de la Commission ;
3) 34 catégories différentes d'activités d'application au niveau de l'UE, dont certaines débutent le 2 février 2025 ;
4) 18 tâches pour l'évaluation ex post de la loi, à réaliser entre 2025 et 2031. Cette liste exhaustive vise notamment à soutenir la société civile, les universitaires et les PME qui ne disposent pas des ressources nécessaires pour suivre l'ensemble de la mise en œuvre de la loi. loi.