La technologie de reconnaissance faciale suit une longue histoire analogique de surveillance et de contrôle basée sur des caractéristiques physiques

Ce que la Nouvelle-Zélande peut apprendre de la réglementation européenne

L’intelligence artificielle est aujourd’hui au cœur de nombreuses activités publiques et privées, notamment le travail, l’éducation, les voyages et les loisirs. Mais son développement rapide et son utilisation accrue sont principalement motivés par des intérêts commerciaux plutôt que par des choix politiques ou législatifs délibérés.

En conséquence, on s’inquiète de plus en plus de l’impact que cela pourrait avoir sur les droits humains individuels et collectifs, tels que le droit à la vie privée et à la liberté d’expression, ainsi que sur la propriété intellectuelle.

Cette préoccupation s’est récemment traduite par une vague d’initiatives réglementaires mondiales, régionales et nationales. La loi sur l’intelligence artificielle de l’Union européenne, qui devrait entrer en vigueur le mois prochain, est une innovation de par sa portée et son ampleur.

Cette loi va au-delà des initiatives mondiales et nationales précédentes (telles que les chartes d’IA responsable et les déclarations éthiques sur l’IA) et se traduit par un cadre réglementaire complet, comprenant un régime d’application et de sanctions.

Certaines entreprises basées en Nouvelle-Zélande peuvent être soumises à des exigences de conformité spécifiques (si leur produit est disponible sur le marché de l'UE ou affecte des personnes dans l'UE), mais l'influence de la loi sur les normes mondiales sera d'une importance plus large.

L’UE est le plus grand marché unique au monde et un organe de normalisation mondial. Et compte tenu des liens plus étroits noués par l’accord de libre-échange entre la Nouvelle-Zélande et l’UE, la Nouvelle-Zélande devrait suivre de près l’évolution de la réglementation.

La loi européenne sur l’IA peut être considérée comme une législation sur la sécurité des produits, qui vise à protéger les personnes contre les dommages et à promouvoir une utilisation fiable et sûre de l’IA.

Sa structure de base est un cadre fondé sur les risques pour l’IA, avec des exigences échelonnées en fonction du niveau de risque. Les systèmes d’IA à haut risque (par exemple les systèmes utilisés dans l’emploi, l’éducation et les infrastructures critiques) seront soumis à une évaluation de conformité, où le fournisseur devra démontrer sa conformité à des exigences telles que la transparence et la cybersécurité.

La plupart des systèmes à haut risque devront être enregistrés dans une base de données publique. Des structures de gouvernance sont en cours de mise en place au niveau de l’UE et dans les juridictions de l’UE pour surveiller la conformité, fixer des normes de mise en œuvre et fournir des conseils d’experts.

Les décisions concernant l’interdiction de certains types d’IA (par le biais de la catégorisation des « risques inacceptables » de la loi) sont d’un intérêt mondial. Ces décisions sont susceptibles de façonner le débat mondial en cours sur la question de savoir si certains systèmes d’IA doivent être complètement interdits car incompatibles avec les droits fondamentaux et la dignité humaine.

Les systèmes que la loi interdira comprennent la notation sociale, le scraping d’images et la plupart des types de reconnaissance des émotions, la catégorisation biométrique et les applications de police prédictive.

Pourtant, malgré l’action concertée des groupes de défense des libertés civiles, la réglementation ne va pas jusqu’à interdire complètement la surveillance biométrique à distance en temps réel – la technologie de reconnaissance faciale en direct en étant l’exemple le plus connu.

Bien que ce type de surveillance soit classé dans la catégorie des « risques inacceptables », il existe des exceptions importantes à des fins d'application de la loi, comme indiqué dans Lois. De plus, la sécurité nationale, la défense et les objectifs militaires ne relèvent pas du champ d'application de la loi. Cela signifie que la technologie continuera d'être utilisée.

Il existe également un risque important qu’en définissant des cas où la surveillance biométrique à distance en temps réel est justifiée, l’UE puisse être perçue comme approuvant la technologie comme étant acceptable, ce qui pourrait conduire à une utilisation accrue dans les juridictions nationales sans l’approbation communautaire nécessaire ou l’engagement avec les groupes particulièrement touchés.

Dans la course mondiale pour accueillir et développer des pôles technologiques, un débat intense fait rage sur les cadres réglementaires les plus propices à l'innovation dans le domaine de l'IA. Certains estiment que l'approche de l'UE pourrait étouffer l'innovation, mais d'autres estiment que la certitude et des lignes claires offrent une base solide à l'investissement et à l'innovation.

Dans l’ensemble, l’approche de l’UE repose sur l’idée que lorsque les consommateurs ont confiance dans les systèmes et dans la qualité, ils sont plus susceptibles d’être disposés à utiliser l’IA dans le sens commercial et dans le cadre de leurs relations avec les services publics.

Que peut donc apprendre la Nouvelle-Zélande de l’approche de l’UE ?

La Nouvelle-Zélande présente d’importantes lacunes dans son régime réglementaire qui peuvent entraver l’innovation et mettre en danger la confiance du public dans l’IA.

Le régime de protection de la vie privée et des données est relativement faible, les individus et les communautés ne disposent pas de moyens accessibles pour savoir quand l’IA est utilisée ou pour déposer des plaintes concernant l’impact de l’IA et des technologies similaires sur leurs droits et leurs intérêts, il manque des mécanismes solides d’application ou de sanction et le régime législatif de surveillance de l’État est obsolète.

Sans un cadre réglementaire solide, fiable et centré sur l’humain, l’adoption et la confiance dans l’IA risquent d’être affectées. Bien que l’Aotearoa Nouvelle-Zélande ait un contexte sociétal et culturel unique nécessitant une approche sur mesure, les concepts et le cadre de la loi européenne sur l’IA fournissent une base solide pour une réglementation de l’IA centrée sur l’humain.