L’Espagne est encore une fois exclue
Le développement de modèles d’IA se poursuit sans qu’il existe une réglementation claire et universelle sur la manière de mener à bien ce processus. Ces dernières semaines, nous avons vu arriver des accords et des recommandations établis par un groupe de nations, mais qui, là encore, ne sont pas acceptés par une large majorité. L’Espagne, d’ailleurs, est laissée de côté dans tous ces pays.
Postures opposées. Les positions de l’Union européenne et des États-Unis ont été différentes depuis le début. Le projet de loi sur l’IA de l’UE est plus restrictif, tandis que la vision américaine a toujours été plus laxiste dans les mesures à prendre. Parmi eux, oui, il y a eu des alternatives comme le Japon qui semblaient avoir un avenir.
Le G7 propose sa régulation pour l’Europe (sans l’Espagne). Il y a à peine une semaine, nous avons appris qu’un accord conclu par le G7 proposait un code de conduite pour le développement de modèles d’IA. Cette initiative n’impliquait pas la création de lois spécifiques ni ne préconisait des sanctions à moins que des violations de ce code ne se produisent. D’ailleurs, dans ces décisions, l’Espagne n’était pas incluse.
18 pays élaborent leurs lignes directrices pour l’IA (sans encore l’Espagne). Aujourd’hui, nous avons appris que les États-Unis et la Grande-Bretagne sont en tête de la liste des 18 pays qui se sont unis pour proposer ce que l’on appelle les « Lignes directrices pour le développement sûr des systèmes d’IA ». Le document est signé par des agences de sécurité et de cybersécurité telles que la NSA (USA), le FBI (USA), le NCSC (Royaume-Uni), l’ANSSI (France), le BSI (Allemagne), l’ACN (Italie) et d’autres organisations. de différents pays comme la République tchèque, l’Estonie, la Pologne, l’Australie, le Chili, Israël, le Nigeria ou Singapour. L’Espagne, encore une fois, ne fait pas partie des participants.
Des lignes directrices, pas une réglementation. Ce document est, selon les responsables, le premier accord international visant à protéger l’IA des acteurs toxiques et favorise le développement de systèmes d’IA « sûrs dès la conception ». Dans ses 20 pages, les 18 pays se sont mis d’accord pour indiquer que les entreprises qui conçoivent et utilisent l’IA doivent la développer et la mettre en œuvre de manière à protéger les clients et le grand public contre toute utilisation abusive.
Bonnes intentions. Il s’agit donc plutôt d’un accord de bonnes intentions qui intéresse les agences impliquées. Jen Easterly, directrice de CISA aux États-Unis, a expliqué que « c’est la première fois que nous entendons une déclaration selon laquelle ces capacités ne devraient pas se concentrer uniquement sur des fonctionnalités intéressantes et sur la rapidité avec laquelle nous pouvons les commercialiser ou sur la manière dont nous pouvons rivaliser pour réduire les coûts ». « , mais ils représentent plutôt « un accord selon lequel la chose la plus importante à faire dans la phase de conception est la sécurité ».
Mais il y a beaucoup de lacunes. Cette recommandation semble évidente et est certainement pertinente, mais le document n’aborde pas d’autres sujets tels que les utilisations appropriées de l’IA ou la manière dont sont collectées et d’où elles proviennent les données avec lesquelles ces modèles sont entraînés.
De nombreuses recommandations, zéro réglementation. Le problème avec tous ces accords est qu’a priori ils ne donneront pas naissance à une série de lois mondiales régissant le développement et l’utilisation des modèles d’IA. Chaque pays continue de faire ce qu’il veut, mais il n’existe pas d’accord universel et l’on ne voit que des recommandations de bonnes pratiques. Dans l’Union européenne, la loi sur l’IA est l’initiative qui se rapproche le plus de cet objectif, et l’Espagne a d’ailleurs fait de sa mise en œuvre l’un des principaux défis lors de sa récente présidence du Conseil de l’UE.