Dans la ruée mondiale vers la réglementation de l’IA, l’Europe s’apprête à être pionnière
Le logo OpenAI est visible sur un téléphone portable devant un écran d’ordinateur affichant la sortie de ChatGPT, le 21 mars 2023, à Boston. Les législateurs européens se sont précipités pour ajouter un langage sur les systèmes généraux d’intelligence artificielle comme ChatGPT alors qu’ils mettaient la touche finale aux premières règles d’IA du monde occidental. Crédit : AP Photo/Michael Dwyer, Fichier
Le développement époustouflant de l’intelligence artificielle a ébloui les utilisateurs en composant de la musique, en créant des images et en écrivant des essais, tout en suscitant des craintes quant à ses implications. Même les responsables de l’Union européenne travaillant sur des règles révolutionnaires pour régir la technologie émergente ont été pris au dépourvu par l’essor rapide de l’IA.
Le bloc des 27 nations a proposé il y a deux ans les premières règles d’IA du monde occidental, en se concentrant sur la maîtrise des applications risquées mais étroitement ciblées. Les systèmes d’IA à usage général comme les chatbots étaient à peine mentionnés. Les législateurs travaillant sur la loi sur l’IA ont réfléchi à l’opportunité de les inclure, mais ne savaient pas comment, ni même si c’était nécessaire.
« Puis ChatGPT a explosé en quelque sorte », a déclaré Dragos Tudorache, un membre roumain du Parlement européen codirigeant la mesure. « S’il y en avait encore qui doutaient de savoir si nous avions besoin de quelque chose, je pense que le doute s’est rapidement dissipé. »
La sortie de ChatGPT l’année dernière a attiré l’attention du monde entier en raison de sa capacité à générer des réponses de type humain basées sur ce qu’il a appris en scannant de grandes quantités de documents en ligne. Avec l’émergence de préoccupations, les législateurs européens ont agi rapidement ces dernières semaines pour ajouter un libellé sur les systèmes généraux d’IA alors qu’ils mettaient la touche finale à la législation.
La loi sur l’intelligence artificielle de l’UE pourrait devenir la norme mondiale de facto en matière d’intelligence artificielle, les entreprises et les organisations décidant potentiellement que la taille même du marché unique du bloc faciliterait la conformité plutôt que de développer différents produits pour différentes régions.
« L’Europe est le premier bloc régional à tenter de manière significative de réglementer l’IA, ce qui est un énorme défi compte tenu du large éventail de systèmes que le terme large » IA « peut couvrir », a déclaré Sarah Chander, conseillère politique principale au sein du groupe de défense des droits numériques EDRi.
Les autorités du monde entier s’efforcent de comprendre comment contrôler cette technologie en évolution rapide pour s’assurer qu’elle améliore la vie des gens sans menacer leurs droits ou leur sécurité. Les régulateurs sont préoccupés par les nouveaux risques éthiques et sociétaux posés par ChatGPT et d’autres systèmes d’IA à usage général, qui pourraient transformer la vie quotidienne, des emplois et de l’éducation au droit d’auteur et à la vie privée.
La Maison Blanche a récemment fait venir les chefs d’entreprises technologiques travaillant sur l’IA, notamment Microsoft, Google et le créateur de ChatGPT, OpenAI, pour discuter des risques, tandis que la Federal Trade Commission a averti qu’elle n’hésiterait pas à sévir.
La Chine a publié un projet de réglementation imposant des évaluations de sécurité pour tous les produits utilisant des systèmes d’IA génératifs comme ChatGPT. L’organisme britannique de surveillance de la concurrence a ouvert un examen du marché de l’IA, tandis que l’Italie a brièvement interdit ChatGPT en raison d’une violation de la vie privée.
Les réglementations radicales de l’UE – couvrant tout fournisseur de services ou de produits d’IA – devraient être approuvées par une commission du Parlement européen jeudi, puis entamer des négociations entre les 27 pays membres, le Parlement et la Commission exécutive de l’UE.
Les règles européennes influençant le reste du monde – le soi-disant effet de Bruxelles – ont déjà joué après que l’UE a renforcé la confidentialité des données et rendu obligatoire les câbles de recharge téléphoniques communs, bien que de tels efforts aient été critiqués pour étouffer l’innovation.
Les attitudes pourraient être différentes cette fois. Les leaders technologiques, dont Elon Musk et le co-fondateur d’Apple, Steve Wozniak, ont appelé à une pause de six mois pour examiner les risques.
Geoffrey Hinton, un informaticien connu sous le nom de « Parrain de l’IA », et son collègue pionnier de l’IA, Yoshua Bengio, ont exprimé leurs inquiétudes la semaine dernière concernant le développement incontrôlé de l’IA.
Tudorache a déclaré que de tels avertissements montrent que la décision de l’UE de commencer à élaborer des règles sur l’IA en 2021 était « la bonne décision ».
Google, qui a répondu à ChatGPT avec son propre chatbot Bard et déploie des outils d’IA, a refusé de commenter. La société a déclaré à l’UE que « l’IA est trop importante pour ne pas être réglementée ».
Microsoft, un bailleur de fonds d’OpenAI, n’a pas répondu à une demande de commentaire. Il a salué l’effort de l’UE comme une étape importante « vers l’établissement d’une IA digne de confiance comme la norme en Europe et dans le monde ».
Mira Murati, directrice de la technologie chez OpenAI, a déclaré dans une interview le mois dernier qu’elle pensait que les gouvernements devraient être impliqués dans la réglementation de la technologie de l’IA.

Le texte de la page ChatGPT du site Web OpenAI est montré sur cette photo, à New York, le 2 février 2023. Les législateurs européens se sont précipités pour ajouter un langage sur les systèmes généraux d’intelligence artificielle comme ChatGPT alors qu’ils mettaient la touche finale au premier monde occidental. Règles de l’IA. Crédit : AP Photo/Richard Drew, Fichier
Mais lorsqu’on lui a demandé si certains des outils d’OpenAI devaient être classés comme présentant un risque plus élevé, dans le contexte des règles européennes proposées, elle a répondu que c’était « très nuancé ».
« Cela dépend en quelque sorte de l’endroit où vous appliquez la technologie », a-t-elle déclaré, citant en exemple un « cas d’utilisation médicale ou un cas d’utilisation légale à très haut risque » par rapport à une application comptable ou publicitaire.
Le PDG d’OpenAI, Sam Altman, prévoit des arrêts à Bruxelles et dans d’autres villes européennes ce mois-ci dans le cadre d’une tournée mondiale pour parler de la technologie avec les utilisateurs et les développeurs.
Des dispositions récemment ajoutées à la loi sur l’IA de l’UE exigeraient que les modèles d’IA « de base » divulguent le matériel protégé par le droit d’auteur utilisé pour former les systèmes, selon une récente ébauche partielle de la législation obtenue par l’Associated Press.
Les modèles de base, également connus sous le nom de grands modèles de langage, sont une sous-catégorie d’IA à usage général qui comprend des systèmes comme ChatGPT. Leurs algorithmes sont formés sur de vastes réservoirs d’informations en ligne, comme des articles de blog, des livres numériques, des articles scientifiques et des chansons pop.
« Vous devez faire un effort important pour documenter le matériel protégé par le droit d’auteur que vous utilisez dans la formation de l’algorithme », ouvrant la voie aux artistes, écrivains et autres créateurs de contenu pour demander réparation, a déclaré Tudorache.
Les responsables qui élaborent les réglementations sur l’IA doivent équilibrer les risques que pose la technologie avec les avantages transformateurs qu’elle promet.
Les grandes entreprises technologiques qui développent des systèmes d’IA et les ministères nationaux européens qui cherchent à les déployer « cherchent à limiter la portée des régulateurs », tandis que les groupes de la société civile font pression pour plus de responsabilité, a déclaré Chander d’EDRi.
« Nous voulons plus d’informations sur la manière dont ces systèmes sont développés – les niveaux de ressources environnementales et économiques qui y sont investis – mais aussi comment et où ces systèmes sont utilisés afin que nous puissions les défier efficacement », a-t-elle déclaré.
Dans le cadre de l’approche basée sur les risques de l’UE, les utilisations de l’IA qui menacent la sécurité ou les droits des personnes sont soumises à des contrôles stricts.
La reconnaissance faciale à distance devrait être interdite. Il en va de même pour les systèmes gouvernementaux de « notation sociale » qui jugent les gens en fonction de leur comportement. Le « grattage » aveugle des photos d’Internet utilisées pour la correspondance biométrique et la reconnaissance faciale est également interdit.
La police prédictive et la technologie de reconnaissance des émotions, en dehors des utilisations thérapeutiques ou médicales, sont également sorties.
Les infractions pourraient entraîner des amendes pouvant atteindre 6 % du chiffre d’affaires annuel mondial d’une entreprise.
Même après avoir obtenu l’approbation finale, attendue d’ici la fin de l’année ou début 2024 au plus tard, la loi sur l’IA n’entrera pas en vigueur immédiatement. Il y aura une période de grâce pour que les entreprises et les organisations déterminent comment adopter les nouvelles règles.
Il est possible que l’industrie demande plus de temps en faisant valoir que la version finale de la loi sur l’IA va plus loin que la proposition initiale, a déclaré Frederico Oliveira Da Silva, juriste principal du groupe européen de consommateurs BEUC.
Ils pourraient faire valoir qu' »au lieu d’un an et demi à deux ans, il nous en faut deux à trois », a-t-il dit.
Il a noté que ChatGPT n’a été lancé qu’il y a six mois et qu’il a déjà soulevé une foule de problèmes et d’avantages pendant cette période.
Si la loi sur l’IA n’entre pas pleinement en vigueur avant des années, « que se passera-t-il au cours de ces quatre années ? » dit Da Silva. « C’est vraiment notre préoccupation, et c’est pourquoi nous demandons aux autorités d’être au top, juste pour vraiment se concentrer sur cette technologie. »