Londra

Le projet de loi britannique sur l'IA se concentrera sur les modèles de style ChatGPT

Le tant attendu Le projet de loi britannique sur l’IA se concentrera étroitement sur des modèles plus avancés et cela ne deviendra pas un « projet de loi sur l’arbre de Noël » pour réglementer l’industrie naissante. C'est ce qu'a déclaré le secrétaire britannique à la Technologie, Peter Kyle. Dans les grandes entreprises technologiques Google, Microsoft et Apple – Kyle a déclaré que le projet de loi sur l’IA attendu plus tard cette année se concentrerait uniquement sur deux aspects : rendre juridiquement contraignants les accords volontaires existants entre les entreprises et le gouvernement et transformer le nouvel AI Safety Institute du Royaume-Uni en un organisme gouvernemental indépendant.

L'inquiétude des entreprises face à une standardisation excessive

Les entreprises craignent que d’autres règlements puissent être ajoutés au projet de loi au cours du processus législatif. Kyle et la chancelière Rachel Reeves ont rencontré des dirigeants de plusieurs grandes entreprises technologiques et investisseurs – dont le propriétaire de Facebook Meta – le 31 juillet pour discuter de la manière dont le nouveau gouvernement peut soutenir les secteurs de la technologie et de l'IA pour stimuler la croissance au Royaume-Uni.

Sir Keir Starmer devait annoncer un projet de loi sur l'IA dans le discours du roi début juillet, mais il ne l'a pas inclus parmi les 40 textes législatifs qu'il a cités. Au lieu de cela, le roi a déclaré que le gouvernement travailliste « cherchera à établir une législation appropriée pour imposer des exigences à ceux qui travaillent au développement des modèles d’IA les plus puissants ».

Le projet de loi britannique sur l’IA arrivera plus tard cette année

Les hauts responsables espèrent que le projet de loi sera prêt pour sa première lecture d'ici la fin de l'année. Il se concentrera exclusivement sur les modèles de base de style ChatGPT – de grands modèles d'IA construits par un petit nombre d'entreprises capables d'analyser et de générer du texte et du multimédia – comme le rapporte Temps Financier.

Le projet de loi sur l'IA de Keir Starmer marque un changement par rapport à la stratégie adoptée par l'ancien Premier ministre Rishi Sunak, qui était réticent à faire pression trop tôt pour des interventions juridiques dans le développement et le déploiement de modèles d'IA, de peur qu'une réglementation stricte puisse entraver la croissance du secteur.

« Nous sommes troisièmes après les États-Unis et la Chine en termes de taille de notre secteur technologique en croissance rapide, et nous sommes leaders mondiaux en matière de sécurité de l'IA », a déclaré Sunak aux députés.

À la fin de l'année dernière, le gouvernement de Sunak a lancé l'AI Safety Institute, qui évalue les risques et les vulnérabilités des modèles d'IA. Lors du sommet britannique sur la sécurité de l'IA en novembre, des entreprises de premier plan, notamment OpenAI, Google DeepMind, Anthropic, Amazon, Mistral, Microsoft et Meta, ont signé un accord « historique » mais non juridiquement contraignant avec des gouvernements tels que le Royaume-Uni, les États-Unis et Singapour. Aux termes de l'accord, les gouvernements signataires seraient en mesure de tester les modèles les plus récents et à venir des entreprises pour détecter les risques et les vulnérabilités avant qu'ils ne soient communiqués aux entreprises et aux consommateurs. Ces entreprises ont pris des engagements volontaires supplémentaires à Séoul plus tôt cette année, notamment celui de « ne pas développer ou déployer de modèle » si de graves risques ne pouvaient pas être atténués.

Rendre les accords juridiquement contraignants

Les responsables du gouvernement britannique estiment qu’il est urgent de rendre ces accords volontaires juridiquement contraignants afin de garantir que les entreprises déjà signataires des accords ne puissent pas se retirer de leurs obligations si cela devient commercialement avantageux. Une consultation sur le contenu du projet de loi devrait être lancée dans les prochaines semaines et durer environ deux mois, selon de hauts responsables.

Faire de l’AISI un organisme indépendant renforcerait son rôle d’organisme indépendant et rassurerait les entreprises sur le fait qu’elle n’aura pas le gouvernement « à son cou ». Le gouvernement de Starmer souhaite que l'AISI joue un rôle de premier plan dans l'établissement de normes mondiales pour le développement de l'IA qui pourraient être utilisées par les gouvernements du monde entier. Des réglementations supplémentaires visant à traiter et à protéger contre les dommages potentiels associés à l'IA, y compris l'utilisation de la propriété intellectuelle pour entraîner des modèles sans autorisation ni compensation, seront examinées séparément de ce projet de loi.