Que signifie concrètement pour les programmeurs la récente loi européenne sur l’IA ?
La loi européenne sur l'intelligence artificielle est entrée en vigueur le 1er août. Elle réglemente essentiellement ce que l'intelligence artificielle peut et ne peut pas faire dans l'UE. Une équipe dirigée par le professeur d'informatique Holger Hermanns de l'Université de la Sarre et la professeure de droit Anne Lauber-Rönsberg de l'Université technique de Dresde a étudié l'impact de la nouvelle loi sur le travail pratique des programmeurs. Les résultats de leur analyse seront publiés à l'automne.
L'article est publié sur le arXiv serveur de préimpression.
« La loi sur l’IA montre que les responsables politiques ont compris que l’IA peut représenter un danger potentiel, notamment lorsqu’elle touche à des domaines sensibles ou liés à la santé », a déclaré Holger Hermanns, professeur d’informatique à l’Université de la Sarre. Mais quel effet la loi sur l’IA a-t-elle sur le travail des programmeurs qui créent les logiciels d’IA ?
Selon Hermanns, la plupart des programmeurs se posent une question à propos de la nouvelle loi : « Que dois-je savoir exactement ? » Après tout, rares sont les programmeurs qui ont le temps ou l'envie de lire les 144 pages du règlement dans leur intégralité.
Mais une réponse à cette question fréquemment posée se trouve dans le document de recherche « AI Act for the Working Programmer », qu'Hermanns a rédigé en collaboration avec sa doctorante Sarah Sterz, la chercheuse postdoctorale Hanwei Zhang, la professeure de droit à la TU Dresden Anne Lauber-Rönsberg et son assistant de recherche Philip Meinel.
Sterz résume ainsi la principale conclusion de l'étude : « Dans l'ensemble, les développeurs de logiciels et les utilisateurs d'IA ne remarqueront pas vraiment de différence. Les dispositions de la loi sur l'IA ne deviennent vraiment pertinentes que lors du développement de systèmes d'IA à haut risque. »
La loi européenne sur l’IA vise à protéger les futurs utilisateurs d’un système contre la possibilité qu’une IA les traite de manière discriminatoire, préjudiciable ou injuste. Si une IA n’intervient pas dans des domaines sensibles, elle n’est pas soumise aux réglementations étendues qui s’appliquent aux systèmes à haut risque.
Pour illustrer ce que cela signifie concrètement, Hermanns a donné l'exemple suivant : « Si un logiciel d'IA est créé dans le but de filtrer les candidatures et éventuellement d'éliminer les candidats avant qu'un professionnel des RH humain n'intervienne, alors les développeurs de ce logiciel seront soumis aux dispositions de la loi sur l'IA dès que le programme sera commercialisé ou deviendra opérationnel. En revanche, une IA qui simule les réactions des adversaires dans un jeu informatique peut toujours être développée et commercialisée sans que les développeurs d'applications n'aient à se soucier de la loi sur l'IA. »
Mais les systèmes à haut risque, qui, en plus des logiciels de suivi des candidats mentionnés ci-dessus, incluent également les systèmes algorithmiques d’évaluation du crédit, les logiciels médicaux ou les programmes qui gèrent l’accès aux établissements d’enseignement tels que les universités, doivent se conformer à un ensemble strict de règles énoncées dans la loi sur l’IA qui entre actuellement en vigueur.
« Les programmeurs doivent tout d’abord s’assurer que les données d’entraînement sont adaptées à l’objectif visé et que l’IA formée à partir de ces données peut réellement accomplir sa tâche », explique Hermanns. Il n’est par exemple pas admissible qu’un groupe de candidats soit discriminé en raison de biais de représentation dans les données d’entraînement.
« Ces systèmes doivent également conserver des enregistrements (journaux) afin de pouvoir reconstituer quels événements se sont produits à quel moment, à l’instar des boîtes noires installées dans les avions », a déclaré Sterz. La loi sur l’IA exige également que les fournisseurs de logiciels documentent le fonctionnement du système, comme dans un manuel d’utilisation classique. Le fournisseur doit également mettre toutes les informations à la disposition du déployeur afin que le système puisse être correctement surveillé pendant son utilisation afin de détecter et de corriger les erreurs. (Les chercheurs ont récemment évoqué la recherche de stratégies efficaces de « surveillance humaine » dans un autre article.)
Hermanns résume ainsi l'impact de la loi sur l'IA : « La loi sur l'IA introduit un certain nombre de contraintes très importantes, mais la plupart des applications logicielles ne seront que peu affectées. » Des choses qui sont déjà illégales aujourd'hui, comme l'utilisation d'algorithmes de reconnaissance faciale pour interpréter les émotions, resteront interdites. Les systèmes d'IA non controversés, comme ceux utilisés dans les jeux vidéo ou dans les filtres anti-spam, ne seront que peu affectés par la loi sur l'IA.
« Les systèmes à haut risque mentionnés ci-dessus ne seront soumis à une réglementation législative que lorsqu'ils entreront sur le marché ou seront opérationnels », a ajouté M. Sterz. Il n'y aura toujours aucune restriction en matière de recherche et de développement, que ce soit dans le domaine public ou privé.
« Je ne vois pas de risque que l’Europe soit laissée à la traîne par les évolutions internationales à cause de l’AI Act », a déclaré Hermanns. En fait, Hermanns et ses collègues ont une opinion globalement favorable de l’AI Act, le premier texte législatif qui fournit un cadre juridique pour l’utilisation de l’intelligence artificielle sur tout un continent. « Cette loi est une tentative de réglementer l’IA de manière raisonnable et équitable, et nous pensons qu’elle a été couronnée de succès. »