C'est ainsi que l'UE définit les quatre niveaux des systèmes d'IA dans sa nouvelle loi
La loi sur l'intelligence artificielle de l'Union européenne récemment approuvée, le premier cadre juridique sur l'IA au monde, vise à fournir aux développeurs d'IA les exigences et les obligations concernant les utilisations spécifiques qu'ils peuvent faire de cette technologie, ainsi qu'à réduire les charges administratives et financières pour le les entreprises qui le développent, notamment les PME.
Ses règles ont pour noyau garantir que les Européens puissent avoir confiance dans ce que l’IA peut leur offrir. Et bien que la majorité des systèmes d’IA ne présentent pas de risque selon les critères des autorités européennes, certains le font, et ce sont eux qui sont limités ou directement restreints par cette nouvelle réglementation.
L’UE y fait face en divisant les risques que chaque système d’IA peut présenter en quatre niveaux. Ceux qui marquent ce dont chacun d’eux peut bénéficier.
Des risques inacceptables
Ils sont directement interdit. Les systèmes d'IA considérés comme « une menace évidente pour la sécurité, les moyens de subsistance et les droits des citoyens » ne peuvent en aucun cas être appliqués dans l'UE, qu'il s'agisse de scores sociaux gouvernementaux ou de jouets utilisant une assistance vocale pouvant encourager des comportements dangereux, en passant par des systèmes de reconnaissance de masse.
Ce point vise à restreindre complètement les systèmes d’IA pouvant être utilisés à des fins de manipulation ou de surveillance de masse. Une entreprise ne peut rien faire pour tenter de commercialiser son système s’il répond à cette définition.
Risque élevé
Ces systèmes sont soumis à des obligations strictes avant d'être commercialisé. Le texte envisage des systèmes d'évaluation et d'atténuation des risques, l'exigence de haute qualité pour les ensembles de données qui alimentent son système (afin de minimiser les risques de résultats discriminatoires), un enregistrement de l'activité qui garantit la traçabilité des résultats, une documentation détaillée qui comprend toutes les informations sur le système et son objectif afin que les autorités puissent évaluer sa conformité, ses mesures de surveillance humaine et son niveau élevé de robustesse, de sécurité et d'exactitude.
Tout système d’identification biométrique à distance entre dans ce niveau, qui est soumis à des exigences strictes. Ils sont directement interdits dans les espaces d'accès public et ne sont envisagés, avec toutes ces obligations, que dans les environnements privés.
Il y a exceptions définies pour les cas d’extrême urgencepar exemple lorsque cela est nécessaire pour retrouver un enfant disparu, pour prévenir une menace terroriste imminente ou pour poursuivre l'auteur ou le suspect d'un crime grave.
Ces systèmes « à haut risque » incluent ceux qui utilisent l’IA pour les infrastructures critiques, telles que les transports ; la formación educativa o profesional, los componentes de seguridad de los productos, la gestión de trabajadores y el acceso al trabajo, los servicios esenciales públicos y privados, el control fronterizo y la gestión de la migración o la administración de justicia y los procesos democráticos, entre autres.
De plus, ils sont soumis à une série d'étapes qui doivent être remplies pour pouvoir être commercialisé, y compris le marquage CE lorsqu'ils seront terminés. Et dans le cas où le système subirait des modifications substantielles au cours de sa durée de vie, il devra à nouveau subir ces étapes avant son introduction commerciale.
Risque limité
Ce niveau comprend le risques liés au manque de transparence dans l’utilisation de l’IA. Par exemple, les chatbots, qui doivent indiquer de manière transparente qu’il s’agit d’un chatbot et non d’un être humain, afin que celui qui se trouve de l’autre côté de la conversation puisse décider de continuer à l’utiliser ou non.
Le contenu généré par l’IA est également inclus, qui doit être identifiable en tant que tel. Plus précisément, le texte généré par l’IA et destiné à rendre compte de sujets d’intérêt public doit être étiqueté comme généré artificiellement, ce qui s’applique également à l’audio ou à la vidéo.
Risque minime ou nul
La nouvelle loi permet au utilisation gratuite de ce type de systèmes. Il inclut ceux qui sont intégrés aux systèmes de filtrage anti-spam pour le courrier électronique ou ceux qui contiennent certains jeux vidéo.
La grande majorité des systèmes d’IA utilisés aujourd’hui dans l’UE, selon l’entité elle-même, entrent dans cette catégorie, donc rien ne changera pour eux en termes d’exigences légales : ils n’auront à faire face à aucune obligation, comme jusqu’à présent.
Image en vedette | Mockuuups Studio, Engin Akyurt sur Unsplash, Simseo
À Simseo | Cette caméra AI vous permet de créer des deepfakes en temps réel. C'est gratuit et il vous suffit d'écrire qui vous voulez devenir