La police britannique ne respecte pas les «normes juridiques et éthiques» dans l'utilisation de la reconnaissance faciale, selon des experts

La police britannique ne respecte pas les «normes juridiques et éthiques» dans l’utilisation de la reconnaissance faciale, selon des experts

Un audit sociotechnique : évaluer l’utilisation par la police de la reconnaissance faciale, Evani Radiya-Dixit, octobre 2022″ width= »800″ height= »497″>

Processus d’utilisation de la reconnaissance faciale pour l’identification, ou reconnaissance faciale un-à-plusieurs. Tout d’abord, une image de sonde d’une personne est capturée. Ensuite, l’image de la sonde est comparée à une liste de surveillance d’images faciales connues pour déterminer s’il y a une correspondance. Le crédit: Un audit sociotechnique : évaluer l’utilisation de la reconnaissance faciale par la policeEvani Radiya-Dixit, octobre 2022

Une équipe du Minderoo Center for Technology and Democracy de l’Université de Cambridge a créé le nouvel outil d’audit pour évaluer « le respect de la loi et des directives nationales » sur des questions telles que la vie privée, l’égalité et la liberté d’expression et de réunion.

Sur la base des conclusions, publiées aujourd’hui dans un nouveau rapport et lancées dans un événement en ligne, les experts se joignent aux appels à l’interdiction de l’utilisation par la police de la reconnaissance faciale dans les espaces publics.

« Il y a un manque de mécanismes de recours solides pour les individus et les communautés lésés par les déploiements de la technologie par la police », a déclaré l’auteur principal du rapport, Evani Radiya-Dixit, chercheur invité au Minderoo Centre de Cambridge.

« Pour protéger les droits de l’homme et améliorer la responsabilité dans l’utilisation de la technologie, nous devons nous demander quelles valeurs nous voulons intégrer à la technologie. »

Les chercheurs ont construit l’outil d’audit sur la base des directives juridiques actuelles, y compris les lois britanniques sur la protection des données et l’égalité, ainsi que des résultats des affaires judiciaires britanniques et des commentaires des organisations de la société civile et du Bureau du commissaire à l’information.

Ils ont appliqué leurs normes éthiques et juridiques à trois utilisations de la technologie de reconnaissance faciale (FRT) par la police britannique. L’un était l’affaire Bridges, dans laquelle un militant des libertés civiles basé à Cardiff a fait appel contre l’utilisation par la police du sud du Pays de Galles du FRT automatisé pour scanner en direct les foules et comparer les visages à ceux d’une « liste de surveillance » criminelle.

Les chercheurs ont également testé les essais de la police métropolitaine d’utilisation similaire du FRT en direct, et un autre exemple de la police du sud du Pays de Galles dans lequel des agents ont utilisé des applications FRT sur leurs smartphones pour scanner les foules afin d’identifier « les personnes recherchées en temps réel ».

Dans les trois cas, ils ont constaté que des informations importantes sur l’utilisation du FRT par la police sont « masquées », y compris les rares données démographiques publiées sur les arrestations ou d’autres résultats, ce qui rend difficile d’évaluer si les outils « perpétuent le profilage racial », selon les chercheurs.

En plus du manque de transparence, les chercheurs ont trouvé peu de responsabilité, sans aucun recours clair pour les personnes ou les communautés affectées négativement par l’utilisation ou l’abus de la technologie par la police. « Les forces de police ne sont pas nécessairement responsables ou tenues pour responsables des dommages causés par la technologie de reconnaissance faciale », a déclaré Radiya-Dixit.

Certaines des utilisations du FRT manquaient d’une surveillance régulière de la part d’un comité d’éthique indépendant ou même du public, disent les chercheurs, et n’en faisaient pas assez pour s’assurer qu’il y avait un « humain dans la boucle » fiable lors de la numérisation d’un nombre incalculable de visages parmi des foules de milliers tout en chasse aux criminels.

Dans le procès de l’application pour smartphone de la police du sud du Pays de Galles, même la « liste de surveillance » comprenait des images de personnes innocentes au regard de la loi britannique – celles qui ont été arrêtées mais non condamnées – malgré le fait que la conservation de ces images est illégale.

« Au cours des dernières années, les forces de police du monde entier, y compris en Angleterre et au Pays de Galles, ont déployé des technologies de reconnaissance faciale. Notre objectif était d’évaluer si ces déploiements utilisaient des pratiques connues pour l’utilisation sûre et éthique de ces technologies », a déclaré le professeur Gina. Neff, directeur exécutif du Centre Minderoo pour la technologie et la démocratie.

« La construction d’un système d’audit unique nous a permis d’examiner les questions de confidentialité, d’égalité, de responsabilité et de surveillance qui devraient accompagner toute utilisation de ces technologies par la police. »

Les agents manquent de plus en plus de ressources et sont surchargés, et le FRT est considéré comme un moyen rapide, efficace et bon marché de retrouver les personnes d’intérêt, selon les chercheurs.

Au moins dix forces de police en Angleterre et au Pays de Galles ont testé la reconnaissance faciale, avec des essais impliquant l’utilisation du FRT à des fins de police opérationnelle, bien que différentes forces utilisent des normes différentes.

Les questions de confidentialité sont profondes pour la technologie policière qui analyse et conserve potentiellement un grand nombre d’images faciales à l’insu ou sans consentement. Les chercheurs mettent en évidence un possible « effet dissuasif » si le FRT conduit à une réticence à exercer les droits fondamentaux – le droit de manifester, par exemple – parmi le public, par crainte des conséquences potentielles.

L’utilisation du FRT soulève également des problèmes de discrimination. Les chercheurs soulignent que, historiquement, les systèmes de surveillance sont utilisés pour surveiller les groupes marginalisés, et des études récentes suggèrent que la technologie elle-même contient un biais inhérent qui identifie de manière disproportionnée les femmes, les personnes de couleur et les personnes handicapées.

Compte tenu des lacunes réglementaires et du non-respect des normes minimales établies par la nouvelle boîte à outils d’audit, les chercheurs écrivent qu’ils soutiennent les appels à «l’interdiction de l’utilisation par la police de la reconnaissance faciale dans les espaces accessibles au public».


Fourni par l’Université de Cambridge