Image 2319

La manipulation et la surveillance de masse sont interdites par un texte pionnier au niveau mondial

Le Parlement européen vient de donner son feu vert lors du vote pour l'approbation de son premier Règlement sur l'intelligence artificielle. Avec le précédent du livre blanc publié en 2020 et proposé officiellement par la Commission européenne en avril 2021, le cours des événements depuis l'arrivée de ChatGPT et société dans nos vies a donné plus de sens à son traitement.

Avec 523 voix pour, 46 contre et 49 abstentions, la loi européenne sur l’IA est désormais une réalité. Il n'existe pas de précédents similaires pour cette nouvelle loi dans d'autres régions, c'est pourquoi le Parlement européen considère que ce texte constitue non seulement un nouveau cadre juridique, mais aussi une référence globale pour des réglementations similaires dans d'autres territoires, qui en fait préparent déjà leurs cadres. réglementaire.

Deux objectifs et quatre niveaux de risque

Ce premier cadre réglementaire de l’Union européenne pour l’intelligence artificielle a deux objectifs principaux qui marquent la manière dont cette discipline doit être abordée sur le territoire européen, une discipline qui cherche à atteindre l’équilibre entre innovation et protection.

  • Sécurité des citoyens, veiller à ce que les systèmes d'IA utilisés dans l'UE et introduits sur le marché européen soient sûrs et respectent les droits des citoyens.
  • Stimuler l’investissement et l’innovation dans le domaine de l’IA en Europe.

Par ailleurs, l'institution apporte une nuance importante qui sert d'avertissement aux navigateurs : « La loi encadrera l'IA en fonction de ses risques. Plus le risque est grand, plus la réglementation sera stricte. » Un mantra qui a marqué tout le texte.

Image 2319

Image : Simseo.

La première chose est de déterminer ce qu’est une IA et ce qui ne l’est pas. Même si cela semble simple sur le plan technique, il est important de définir clairement ce qui distingue l’IA des autres logiciels plus simples, en établissant des critères clairs pour comprendre à qui s’applique la nouvelle loi. Et la définition choisie est celle fournie par l’OCDE :

L'OCDE définit un système d'IA comme un système basé sur une machine qui, pour un ensemble donné d'objectifs définis par l'homme, effectue des prédictions, des recommandations ou des décisions qui influencent les environnements réels ou virtuels.

La loi présente également d'autres nuances : elle ne s'applique pas aux domaines hors du champ d'application du droit européen et n'affectera pas les compétences des États membres en matière de sécurité nationale. Ni aux systèmes utilisés exclusivement à des fins militaires ou de défense, ni à ceux utilisés à des fins de « recherche et innovation », donnant ainsi plus de place à la fois à la sécurité nationale de chaque pays et à la R&D.

Dragoş Tudorache.  Image : Parlement européen.
Dragoş Tudorache.  Image : Parlement européen.

Dragoş Tudorache. Image : Parlement européen.

La vision à long terme de cette loi laisse une inconnue : le saut quantique qui se produira à un moment donné pourrait-il être possible ? le rendre obsolète. « Nous devons réfléchir aux progrès quantiques qui peuvent être réalisés avec cette technologie, nous devons penser au moment où cette technologie nous surprendra par sa capacité : nous aurons une sorte d'intelligence générée artificiellement et ensuite nous devrons réfléchir à la morale conséquences de cette évolution », a expliqué Dragoş Tudorache, du parti libéral Renew et président de la commission spéciale d'AI, au Parlement européen.

« Nous devons faire en sorte que cet ensemble de règles aboutisse. Nous devons parvenir à une application harmonieuse. Après les élections, dans la nouvelle législature, nous devrons ouvrir la voie à l'application et offrir une certitude aux citoyens européens », a ajouté Tudorache.

Brando Benifei.  Image : Parlement européen.
Brando Benifei.  Image : Parlement européen.

Brando Benifei. Image : Parlement européen.

Ce cadre réglementaire a été élaboré au milieu de nombreuses pressions. Brando Benifei, l'un des membres de la commission spéciale AI du parti social-démocrate S&D, a admis avoir subi « de fortes pressions sur le droit d'auteur », en référence non seulement aux grandes entreprises technologiques, mais aussi à l'industrie audiovisuelle. .

Cette nouvelle loi a également établi plusieurs critères de protection horizontaux déterminer quand un système d’IA peut causer un préjudice à la société : si l’on en détecte un qui répond à ces critères, il sera soumis à plusieurs exigences et obligations pour pouvoir accéder au marché européen.

Le grand débat avec l'IA est de savoir s'il s'agit du nouveau projet Manhattan : certains défendent son ouverture, d'autres son fermeture pure et simple.

Parmi ceux qui se situent de ce côté-là de la définition, ceux qui sont considérés comme des « risques inacceptables » seront directement interdits. L'UE a donné quelques exemples de tels cas : des systèmes visant à la manipulation cognitivo-comportementale ou au suivi aveugle d'images faciales extraites du Web.

C’est-à-dire l’interdiction de l’utilisation de l’IA à des fins de manipulation ou de surveillance massive. Ceux-ci sont considérés comme une menace pour la sécurité et les droits des personnes. Les seules exceptions, très limitées et protocolisées, concernent des utilisations extrêmement urgentes qui nécessitent une autorisation judiciaire.

Du risque minime au risque inacceptable.  C'est ainsi que l'UE définit les quatre niveaux des systèmes d'IA dans sa nouvelle loi

Les systèmes d’IA qui présentent un risque élevé seront soumis à des exigences et des certifications strictes et ne pourront être commercialisés qu’après avoir été approuvés par l’organisme de réglementation. Et si au cours du cycle de vie dudit système des changements pertinents sont appliqués, ils devront recommencer toute la procédure avant de le mettre sur le marché.

Ceux qui présentent un risque limité sont uniquement soumis à des exigences d'étiquetage pour préciser qu'il s'agit de systèmes d'IA, et ceux qui présentent un risque minime sont autorisés à les utiliser librement, sans exigences ni obligations.

Droit des risques
Droit des risques

Image : Simseo.

La version finale de ce texte – en l'absence de modifications de dernière minute, uniquement d'ordre technique -, présentée fin janvier au Conseil des ministres de l'Union européenne, s'est heurtée à certaines résistances de certains pays en raison des délais serrés. pour l'analyser, mais a finalement obtenu le feu vert jusqu'à ce qu'il devienne l'approbation nouvellement obtenue.

L'éternelle recherche de l'équilibre

Dans ce processus, qui a commencé avec un projet peu convaincant, il y a également eu une certaine résistance à une approche plus dure et plus ciblée, selon lui, sur la protection des utilisateurs au prix d'une plus grande permissivité pour les grands modèles d'IA.

Concrètement, ce sont la France, l’Allemagne et l’Italie qui ont demandé pour eux un régime plus léger face à la crise. ne coupez pas les ailes des startups dans les IA nées sur le sol européen, comme Mistral AI (français) ou Aleph Alpha (allemand). D'autres pays comme l'Autriche ou la Slovaquie se sont également montrés réticents ou ont demandé quelques éclaircissements, même si la position d'un même pays a pu varier au cours de ce cadre réglementaire.

L’Internet tel que nous le connaissions est en train de mourir : l’IA générative le détruit

Cependant, le Parlement européen est resté uni dans une approche stricte de ces modèles, avec une approche par niveaux, des règles horizontales pour chaque modèle et des obligations pour ceux qu'il considère comme comportant un risque inhérent.

La dernière phase de préparation de ce texte a coïncidé avec la présidence espagnole (second semestre 2023) et la présidence belge (depuis janvier dernier). Ces derniers, face aux réserves de la France, de l'Allemagne et de l'Italie, ont maintenu les délais serrés qui étaient en vigueur afin de ne pas retarder davantage le vote ou faciliter les modifications dues à ces pressions.

Le contexte est important : la législature est sur le point de se terminerles prochaines élections européennes sont en juin et un dernier effort a été fait pour approuver ce cadre réglementaire pour l’IA avant cette date.

La France, nation qui a provoqué le plus de tensions à cet égard, a fini par se retrouver seule dans ses frictions puisque l’Allemagne d’abord, puis l’Italie ont accepté le texte. Dans ce dernier cas, sa présidence tournante du G7 a probablement joué un rôle important, où l’IA occupe une place plus importante que jamais.

En tout cas, les revendications françaises sont passées par une mise en œuvre qui garantit le développement de modèles compétitifsqui peuvent tenir tête à ceux de Google, OpenAI et compagnie, ne seront pas gênés.

Autrement dit : cette nouvelle réglementation ne surcharge pas les entreprises d'obligations mais les équilibre plutôt avec la protection de leurs secrets commerciaux. Quelque chose de particulièrement précieux pour les PME et les startups, avec beaucoup moins de ressources à consacrer aux procédures bureaucratiques. Surtout si cela finit par conduire à une réduction de leur niveau d’innovation et de compétitivité, ou provoque directement un exode hors de l’UE des technologies émergentes d’IA.

Et c’est la question qui a pris le plus de tournure jusqu’à arriver à la version finale, dans laquelle chacun a dû céder dans une certaine mesure pour pouvoir appliquer cette nouvelle loi : l'équilibrela recherche constante du niveau qui équilibre la protection du citoyen européen avec la compétitivité et l'innovation.

À Simseo | Google est à la croisée des chemins. Et la faute en revient à Sundar Pichai qui a perdu quelque chose de crucial pour réussir

Image en vedette | Parlement européen