plus il est puissant, plus les limitations seront strictes
L’Union européenne continue de travailler à plein régime pour lancer ce qui sera la première réglementation majeure de l’histoire sur l’IA. El proceso, que comenzó en mayo de 2022, se enfrenta ahora a su fase final, y lo hace con un planteamiento singular que aboga por clasificar los sistemas de IA en tres grandes niveles de prestaciones para luego aplicar distintas restricciones según el alcance de cada uno d’eux.
Trois niveaux, trois. Bloomberg affirme avoir eu accès à un projet de loi dite AI Act qui parle de trois catégories de systèmes d’IA. La première, celle des modèles fondateurs (type GPT-4 ou PaLM 2) qui sont à la base de la plupart des implémentations pratiques. La seconde, celle de systèmes « très performants » qui se différencient par la capacité de traitement utilisée pour les entraîner. Le troisième, les systèmes généralistes comme ChatGPT, et ici leur influence se mesurerait en fonction de leur nombre d’utilisateurs.
L’UE présente sa proposition. Les représentants des trois institutions de l’Union européenne ont déjà soutenu cette solution basée sur des couches ou des catégories lors d’une précédente réunion ce mois-ci, mais selon Bloomberg, les experts ont élaboré cette proposition plus concrète datée du 16 octobre. Auparavant, nous avions déjà vu ce cadre réglementaire basé sur le risque posé par ces solutions. Examinons ces grandes catégories et leurs limites.
Tout d’abord, tous les modèles fondamentaux. Les développeurs d’IA devront documenter à la fois le modèle et son processus de formation avant de le publier. Ils devront analyser leur sécurité en essayant de forcer les mauvais comportements, et il faudra également savoir comment sont gérés les éventuels conflits de droits d’auteur. Ces modèles, selon le document, peuvent « effectuer avec compétence un large éventail de tâches différentes ».
Deuxièmement, les modèles fondamentaux « hautement performants ». Si le modèle est plus ambitieux, il devra faire l’objet d’une évaluation plus approfondie. En fait, des experts externes nommés par le nouveau Bureau européen de l’IA effectueront les tests d’évaluation de sécurité du « red-teaming ». Des contrôles réguliers seront également effectués pour vérifier que les règles sont respectées et que la transparence est maintenue. Ces modèles seront classés en fonction de la puissance de calcul appliquée pour les entraîner mesurée en FLOPS, une grandeur déjà traditionnelle lors de l’évaluation des supercalculateurs. Pour le moment, les plages de puissance n’ont pas été établies, mais elles seront mises à jour.
Troisièmement, des systèmes d’IA à usage général et à grande échelle. Il y aura également ici des analyses de sécurité externes et l’obligation de créer un rapport sur les risques et des mesures pour les minimiser. Ces systèmes seront classés selon le nombre d’utilisateurs : s’il y a plus de 10 000 utilisateurs professionnels ou 45 millions d’utilisateurs enregistrés, le système sera considéré comme membre de cette catégorie. Néanmoins, AI Office peut inclure d’autres systèmes lorsque ce nombre d’utilisateurs n’est pas dépassé, mais cela peut présenter des risques.
S’ils ne s’y conforment pas, suspension. Selon Bloomberg, des mesures spécifiques ne sont pas encore détaillées dans le projet, mais AI Office collectera de la documentation, organisera des tests de conformité, créera un registre d’experts en sécurité et mènera des enquêtes. S’il est constaté que les modèles ne respectent pas cette réglementation, le modèle pourra être suspendu « en dernier recours ». Quelque chose de similaire s’est produit lorsque l’Italie a temporairement interdit l’utilisation de ChatGPT, par exemple. Ce règlement devrait être débattu la semaine prochaine, même si sa rédaction ne sera finalisée qu’à la fin de l’année.
Mais. La mise en œuvre d’une réglementation, bien que nécessaire, a un contrepoint : si elle est trop restrictive, elle pourrait finir par nuire au développement et à la mise en œuvre de ces systèmes dans l’UE. Cela placerait une fois de plus le vieux continent à la traîne dans cette nouvelle révolution (théorique), tandis que les États-Unis ou la Chine avanceraient avec des réglementations plus laxistes, s’ils finissaient par les établir. Les experts parlent déjà d’un grand perdant, l’Open Source, mais cette ruée peut aussi être un mauvais conseil car la réglementation pourrait devenir obsolète.