À notre connaissance, l’agence qui supervise l’IA en Espagne ne supervise rien. Ce qu’il a, c’est un laboratoire d’idées
L’Agence espagnole de surveillance de l’intelligence artificielle (AESIA) est sur le point d’achever sa première année de vie opérationnelle. Cette organisation a activé plusieurs initiatives avec des résultats encore difficiles à préciser, mais une chose est claire : superviser, ce qu’on dit superviser, ne semble rien superviser. Le danger, une fois de plus, est de poursuivre la dérive européenne : c’est bien d’essayer d’éviter les risques imposés par l’IA, mais ce dont l’Europe et l’Espagne ont besoin, c’est autre chose.
Il ne supervise ni ne sanctionne. Le grand paradoxe de l’agence dont le siège officiel est à La Corogne est qu’après des mois de fonctionnement, elle n’a pas encore exercé son pouvoir de sanction théorique ni audité un seul algorithme critique de la Big Tech. Pour l’instant, ses travaux se sont concentrés sur « l’accès anticipé » à la réglementation.
L’éternelle critique. Même si la loi européenne sur l’IA permet déjà d’interdire les systèmes violant les droits fondamentaux à partir de février 2025, l’AESIA n’a ouvert aucun dossier pertinent. Alberto Gago, son directeur, a récemment déclaré dans El País : « Nous sommes sûrs qu’aucune IA interdite n’opère en Espagne ». Le travail est actuellement très différent : il se limite à la pédagogie et à l’accompagnement, laissant le travail de « morsure » réglementaire pour un avenir qui semble pour l’instant loin d’être venu. Pendant ce temps, le véritable marché de l’IA continue d’être défini par des entreprises américaines ou chinoises, qui ne cessent de lancer de nouveaux modèles sans pratiquement aucune restriction réglementaire, tandis que les entreprises espagnoles et européennes subissent le joug d’une réglementation qui menace de les bloquer avant même de pouvoir lancer des projets de ce type.
Pour le moment, il écrit uniquement des manuels. En fait, elle est pour l’instant devenue un conseiller juridique gratuit pour une douzaine d’entreprises dans un « bac à sable réglementaire » récemment créé. Cette initiative, qui se targue d’être en avance d’un an sur les délais obligatoires de la loi européenne sur l’IA, veut servir d’espace contrôlé où les entreprises peuvent tester leurs systèmes d’IA. Sur les 200 candidatures, 12 projets ont été sélectionnés, mais le résultat de cet effort consiste en la rédaction de guides techniques qui aident les entreprises à se conformer à ces réglementations. Le bac à sable soulève également des doutes sur des éléments tels que sa durée, qui est d’un an et peut-être trop longue pour la rapidité avec laquelle ce segment évolue.
Un centre civique comme siège temporaire. AESIA devrait déjà utiliser les installations du bâtiment de La Terraza, mais cet emplacement se poursuit dans le cadre d’une concession de RTVE et cela ne se terminera théoriquement qu’en 2034. Il est difficile de projeter une image de souveraineté technologique internationale lorsque le siège principal de l’agence opère depuis la Casa Veeduría, un espace partagé avec les activités du quartier. Ce siège provisoire cohabite avec des ateliers de quartier et des réunions d’associations, loin des massifs datacenters qu’il ambitionne d’encadrer. L’image d’un régulateur de pointe travaillant dans ce type d’activités n’est probablement pas la plus appropriée en termes de crédibilité opérationnelle.
Trente professionnels comparés aux mille milliards de dollars d’investissement des Big Tech. Il existe une disproportion inquiétante entre l’ambition du discours gouvernemental et, par exemple, la main-d’œuvre réelle actuellement disponible au sein de l’AESIA. Lors de l’annonce de son lancement, 80 employés hautement spécialisés avaient été promis, mais les chiffres d’août 2025 indiquent qu’il y a à peine 30 professionnels dans l’effectif couvrant tous les domaines. Le travail semble colossal si une organisation comme celle-ci veut superviser tous les modèles qui entreront en vigueur dans notre pays. Actuellement, sur son site officiel, il y a deux appels pour pourvoir des postes permanents et temporaires, en plus de six appels pour des fonctionnaires.
Le Laboratoire d’Idées. En avril dernier, cette « faculté pluridisciplinaire » a été lancée pour anticiper les enjeux éthiques concernant le genre, les mineurs et la désinformation. Bien que les sujets soient essentiels, le format purement académique se heurte à la vitesse extrême à laquelle évolue l’industrie de l’IA. Il est particulièrement étrange que l’agence émette des recommandations sur les jouets à Noël alors que les entreprises mondiales redéfinissent le pouvoir géopolitique à travers des modèles linguistiques massifs qui menacent même désormais de déséquilibrer les piliers de l’économie.
Les bonnes intentions ne servent à rien. Il existe un décalage évident entre la mission philosophique de ce laboratoire et la réalité technique. Même s’il est intéressant de noter que ce travail pédagogique citoyen est nécessaire, il ne devrait pas être la fonction principale ou la plus grande réussite d’une agence d’encadrement technique de haut niveau. L’AESIA se comporte davantage comme un service de service citoyen que comme une organisation capable d’analyser le fonctionnement des algorithmes qui nous accordent du crédit ou diagnostiquent des maladies.

ALIA, un exemple compromettant. Nous avons un premier cas inquiétant avec ALIA, le modèle d’IA développé au BSC. Ce modèle a été certifié par l’AESIA, ce qui indique qu’il est conforme à la réglementation. Cependant, le démarrage et l’évolution de ce modèle restent irréguliers et inquiétants, même s’il est vrai que les ressources dont dispose le projet sont loin de celles dont disposent les startups aux États-Unis ou en Chine. La rigueur de la certification est discutable et remet en question la capacité de l’AESIA à superviser les modèles d’IA les plus avancés.
À Simseo | Ce n’est pas une mise à jour normale : MareNostrum 5 dépensera 129 millions d’euros pour devenir le supercalculateur espagnol d’IA
