La police australienne teste l'IA pour analyser les images des caméras portées sur le corps, malgré les échecs à l'étranger, selon les critiques des experts
par Kathryn Henne, Charles Orgill Gretton et Kanika Samuels-Wortley, The Conversation
Les services de police du monde entier utilisent de plus en plus de caméras corporelles pour tenter d'améliorer la confiance et la responsabilité du public. Mais cela a créé d’énormes quantités de données, dont environ 95 % ne sont jamais examinées ni même vues.
Entrez des sociétés telles que Axon, Polis Solutions et Truleo. Ces sociétés commercialisent des outils d’intelligence artificielle (IA) pour analyser les données générées par les caméras corporelles et d’autres technologies policières.
Certains services de police aux États-Unis avaient déjà lancé des essais de ces outils avant de les abandonner en raison de préoccupations concernant la vie privée.
Truleo a déclaré à The Conversation que la police australienne utilisait désormais sa technologie, mais n'a nommé aucun service spécifique. Cependant, lorsque The Conversation a demandé aux services de police australiens s'ils utilisaient ou envisageaient d'utiliser le logiciel Truleo, tous, à l'exception du service de police du Queensland, ont répondu que non.
Dans un communiqué, un porte-parole du service de police du Queensland a déclaré que celui-ci menait actuellement un essai d'IA avec « diverses technologies » dans le cadre de son travail de lutte contre la violence domestique et familiale. Le porte-parole a ajouté : « Une fois l'essai terminé, une évaluation détaillée sera entreprise avant que le QPS n'envisage de futures options d'utilisation de la technologie. »
Mais l’IA ne résoudra pas les défis auxquels est confrontée la police, du moins pas à elle seule.
La promesse non tenue des caméras portées sur le corps
L’utilisation accrue de caméras corporelles par les forces de l’ordre ces dernières années fait suite à un certain nombre d’affaires très médiatisées impliquant le recours à la force par la police. En Australie, par exemple, un policier est actuellement jugé pour l'homicide involontaire d'une arrière-grand-mère de 95 ans au moyen d'un pistolet Taser.
Il y a un débat sur la question de savoir si les caméras portées sur le corps rendent réellement le comportement des policiers plus transparent et plus responsable.
Certains experts ont déclaré que leur efficacité était incertaine. D’autres ont déclaré qu’il s’agissait d’une tentative de réforme ratée.
Ces sentiments ont été repris par une étude majeure publiée plus tôt cette année.
L'étude a examiné l'utilisation de caméras portées sur le corps en réponse à la violence domestique et familiale en Australie. Il reconnaît leur utilité potentielle mais montre comment les données issues de ces technologies pourraient ne pas être utilisées pour venir en aide aux victimes-survivants. Cela est dû à des problèmes plus fondamentaux liés à la manière dont la police interagit avec les victimes-survivantes.
Les nombreuses utilisations de l'IA dans la police
La police utilise l’IA depuis longtemps dans le cadre de son travail.
Par exemple, en 2000, la police de Nouvelle-Galles du Sud a lancé un programme utilisant l’analyse de données pour prédire quelles personnes risquaient de commettre un crime, afin d’améliorer la surveillance policière.
Un rapport de la Law Enforcement Conduct Commission a révélé plus tard que le programme ciblait de manière disproportionnée les jeunes autochtones, qui ont ensuite été confrontés à une surveillance accrue et à un nombre croissant d'arrestations pour des délits mineurs. Cela a conduit la police de Nouvelle-Galles du Sud à mettre fin au programme en 2023.
Le service de police du Queensland a également proposé un programme utilisant les technologies de l'IA pour prédire le risque de violence domestique et familiale.
Les experts ont toutefois souligné des conséquences imprévues potentielles, notamment la criminalisation des victimes-survivantes.
Des entreprises telles que Truleo, qui fournit à la police des outils d'IA pour analyser les images des caméras portées sur le corps, affirment que ces outils améliorent le « professionnalisme » de la police. Cependant, il n'est pas clair si ce qui est mesuré et évalué comme étant du « professionnalisme » est en corrélation avec les fonctions et responsabilités essentielles des agents.
En fait, la police de Seattle, aux États-Unis, a mis fin à son contrat avec Truleo, même si elle reconnaissait qu'il s'agissait d'un essai « prometteur ».
Elle l'a fait après avoir découvert un cas de conduite non professionnelle dans lequel le syndicat de la police avait cité l'utilisation d'images de caméra comme une atteinte à la vie privée d'un policier.
La nécessité d’une réforme structurelle
Les outils d’IA pourraient aider la police à gérer et analyser les données des caméras portées sur le corps. Leur valeur dépend de plusieurs conditions.
Premièrement, la police doit évaluer minutieusement tous les outils d’IA pour s’assurer qu’ils sont adaptés à leur utilisation dans un contexte local. Beaucoup de ces technologies sont développées à l’étranger et formées sur des données présentant des caractéristiques linguistiques telles que des accents, des inflexions et des insultes qui ne sont pas courantes en Australie.
Deuxièmement, la police – et les entreprises qui proposent des outils d’analyse de données d’IA – doivent également faire preuve de transparence sur la manière dont elles utilisent les images des caméras portées sur le corps. En particulier, ils doivent partager où, comment et selon quelles modalités les données sont traitées et stockées.
Enfin, et surtout, l’utilisation des technologies de l’IA par la police ne doit pas supplanter les réformes organisationnelles et structurelles.
La police doit examiner l’impact des comportements et des processus qui ont abouti à des pratiques de surveillance inéquitables. Les technologies d’IA ne sont pas des solutions à ces dynamiques sous-jacentes.
Sans une compréhension des structures systémiques qui entretiennent les disparités dans le système judiciaire pénal, la police ne sera pas prête à aborder les implications de l’intégration des technologies de l’IA dans son travail. Dans le cas contraire, ces technologies risquent davantage d’exacerber les injustices et les inégalités existantes.
En bref, les questions concernant l’IA ne devraient pas porter uniquement sur la technologie mais sur la légitimité policière.