Qui écrira les règles de l’IA ? Comment les nations s’empressent de réglementer l’intelligence artificielle
L’intelligence artificielle (IA) est un label qui peut couvrir un large éventail d’activités liées aux machines effectuant des tâches avec ou sans intervention humaine. Notre compréhension des technologies d’IA dépend largement de l’endroit où nous les rencontrons, des outils de reconnaissance faciale et chatbots aux logiciels de retouche photo et aux voitures autonomes.
Si vous pensez à l’IA, vous pourriez penser aux entreprises technologiques, depuis les géants existants tels que Google, Meta, Alibaba et Baidu, jusqu’aux nouveaux acteurs tels que OpenAI, Anthropic et d’autres. Moins visibles sont les gouvernements du monde, qui façonnent le paysage des règles dans lesquelles les systèmes d’IA fonctionneront.
Depuis 2016, les régions et pays férus de technologie d’Europe, d’Asie-Pacifique et d’Amérique du Nord ont établi des réglementations ciblant les technologies d’IA. (L’Australie est à la traîne et étudie toujours la possibilité de telles règles.)
Il existe actuellement plus de 1 600 politiques et stratégies en matière d’IA dans le monde. L’Union européenne, la Chine, les États-Unis et le Royaume-Uni sont devenus des figures déterminantes dans le développement et la gouvernance de l’IA dans le paysage mondial.
Renforcer la réglementation sur l’IA
Les efforts de réglementation de l’IA ont commencé à s’accélérer en avril 2021, lorsque l’UE a proposé un premier cadre de réglementation appelé AI Act. Ces règles visent à fixer des obligations pour les fournisseurs et les utilisateurs, en fonction de divers risques associés aux différentes technologies d’IA.
Alors que la loi européenne sur l’IA était en attente, la Chine a proposé sa propre réglementation sur l’IA. Dans les médias chinois, les décideurs politiques ont évoqué leur désir d’être les premiers et d’offrir un leadership mondial en matière de développement et de gouvernance de l’IA.
Alors que l’UE a adopté une approche globale, la Chine a réglementé les uns après les autres certains aspects spécifiques de l’IA. Celles-ci vont des recommandations algorithmiques à la synthèse profonde ou à la technologie « deepfake » et à l’IA générative.
Le cadre complet de la Chine pour la gouvernance de l’IA sera constitué de ces politiques et d’autres à venir. Le processus itératif permet aux régulateurs de développer leur savoir-faire bureaucratique et leur capacité de régulation, et leur laisse la flexibilité nécessaire pour mettre en œuvre une nouvelle législation face aux risques émergents.
Un appel au réveil’
La réglementation chinoise sur l’IA a peut-être été un signal d’alarme pour les États-Unis. En avril, l’influent législateur Chuck Shumer a déclaré que son pays ne devrait « pas permettre à la Chine de prendre la tête de l’innovation ou d’écrire les règles de la route » pour l’IA.
Le 30 octobre 2023, la Maison Blanche a publié un décret sur une IA sûre, sécurisée et digne de confiance. L’ordre tente d’aborder des questions plus larges d’équité et de droits civils, tout en se concentrant également sur des applications spécifiques de la technologie.
Aux côtés des acteurs dominants, des pays dont le secteur informatique est en croissance, notamment le Japon, Taiwan, le Brésil, l’Italie, le Sri Lanka et l’Inde, ont également cherché à mettre en œuvre des stratégies défensives pour atténuer les risques potentiels associés à l’intégration généralisée de l’IA.
Les réglementations mondiales en matière d’IA reflètent une course contre l’influence étrangère. À l’échelle géopolitique, les États-Unis sont en concurrence économique et militaire avec la Chine. L’UE met l’accent sur l’établissement de sa propre souveraineté numérique et la lutte pour l’indépendance vis-à-vis des États-Unis.
Au niveau national, ces réglementations peuvent être considérées comme favorisant les grandes entreprises technologiques historiques par rapport aux concurrents émergents. En effet, il est souvent coûteux de se conformer à la législation, ce qui nécessite des ressources qui manquent parfois aux petites entreprises.
Alphabet, Meta et Tesla ont soutenu les appels en faveur d’une réglementation de l’IA. Dans le même temps, Google, propriété d’Alphabet, s’est joint à Amazon pour investir des milliards dans le concurrent d’OpenAI, Anthropic, et xAI, du patron de Tesla, Elon Musk, vient de lancer son premier produit, un chatbot appelé Grok.
Vision partagée
La loi européenne sur l’IA, la réglementation chinoise sur l’IA et le décret de la Maison Blanche témoignent d’intérêts partagés entre les nations concernées. Ensemble, ils ont préparé le terrain pour la « déclaration de Bletchley » de la semaine dernière, dans laquelle 28 pays, dont les États-Unis, le Royaume-Uni, la Chine, l’Australie et plusieurs membres de l’UE, se sont engagés à coopérer en matière de sécurité de l’IA.
Les pays ou régions considèrent l’IA comme un contributeur à leur développement économique, à leur sécurité nationale et à leur leadership international. Malgré les risques reconnus, toutes les juridictions tentent de soutenir le développement et l’innovation de l’IA.
D’ici 2026, les dépenses mondiales consacrées aux systèmes centrés sur l’IA pourraient dépasser 300 milliards de dollars, selon une estimation. D’ici 2032, selon un rapport de Bloomberg, le marché de l’IA générative pourrait à lui seul valoir 1 300 milliards de dollars.
Des chiffres comme ceux-ci, ainsi que les discussions sur les avantages perçus de la part des entreprises technologiques, des gouvernements nationaux et des sociétés de conseil, ont tendance à dominer la couverture médiatique de l’IA. Les voix critiques sont souvent mises de côté.
Des intérêts concurrents
Au-delà des avantages économiques, les pays se tournent également vers les systèmes d’IA pour les applications de défense, de cybersécurité et militaires.
Lors du sommet britannique sur la sécurité de l’IA, les tensions internationales étaient évidentes. Même si la Chine était d’accord avec la déclaration de Bletchley faite le premier jour du sommet, elle a été exclue des événements publics le deuxième jour.
Un point de désaccord concerne le système de crédit social chinois, qui fonctionne avec peu de transparence. La loi européenne sur l’IA considère les systèmes de notation sociale de ce type comme créant un risque inacceptable.
Les États-Unis perçoivent les investissements chinois dans l’IA comme une menace pour la sécurité nationale et économique des États-Unis, notamment en termes de cyberattaques et de campagnes de désinformation.
Ces tensions sont susceptibles d’entraver la collaboration mondiale sur des réglementations contraignantes en matière d’IA.
Les limites des règles actuelles
Les réglementations existantes en matière d’IA présentent également des limites importantes. Par exemple, il n’existe pas d’ensemble clair et commun de définitions des différents types de technologies d’IA dans les réglementations actuelles des différentes juridictions.
Les définitions juridiques actuelles de l’IA ont tendance à être très larges, ce qui soulève des inquiétudes quant à leur caractère pratique. Ce large champ d’application signifie que la réglementation couvre un large éventail de systèmes qui présentent des risques différents et peuvent mériter des traitements différents. De nombreuses réglementations manquent de définitions claires du risque, de la sécurité, de la transparence, de l’équité et de la non-discrimination, ce qui pose des problèmes pour garantir une conformité juridique précise.
Nous voyons également les juridictions locales lancer leurs propres réglementations dans les cadres nationaux. Celles-ci peuvent répondre à des préoccupations spécifiques et contribuer à équilibrer la réglementation et le développement de l’IA.
La Californie a présenté deux projets de loi visant à réglementer l’IA dans l’emploi. Shanghai a proposé un système de notation, de gestion et de supervision du développement de l’IA au niveau municipal.
Cependant, une définition étroite des technologies d’IA, comme l’a fait la Chine, présente le risque que les entreprises trouvent des moyens de contourner les règles.
Avancer
Des ensembles de « meilleures pratiques » pour la gouvernance de l’IA émergent des juridictions locales et nationales et des organisations transnationales, sous la surveillance de groupes tels que le conseil consultatif de l’IA de l’ONU et le National Institute of Standards and Technology des États-Unis. Les cadres de gouvernance de l’IA existants au Royaume-Uni, aux États-Unis, dans l’UE et, dans une mesure limitée, en Chine sont susceptibles d’être considérés comme des lignes directrices.
La collaboration mondiale sera étayée à la fois par un consensus éthique et, plus important encore, par des intérêts nationaux et géopolitiques.