Les forces de l'ordre apprennent à utiliser l'IA plus éthiquement
Alors que de plus en plus de secteurs expérimentent l'intelligence artificielle, l'un des domaines qui a le plus rapidement adopté cette nouvelle technologie est l'application de la loi. Cela a conduit à des douleurs de croissance problématiques, des fausses arrestations aux préoccupations liées à la reconnaissance faciale.
Cependant, un nouvel outil de formation est maintenant utilisé par les agences d'application de la loi à travers le monde pour s'assurer que les agents comprennent cette technologie et l'utilisent de manière plus éthique.
Basé en grande partie sur le travail de CANSU CANCA, directeur de la pratique responsable de l'IA à l'Institut de l'IA expérientiel de l'Université Northeastern, et conçu en collaboration avec les Nations Unies et Interpol, la boîte à outils de l'IA responsable est l'un des premiers programmes de formation complets pour la police axés exclusivement sur l'IA. Au cœur de la boîte à outils se trouve une question simple, dit CANCA.
« La première chose que nous commençons est de demander à l'organisation, lorsqu'ils envisagent de construire ou de déployer l'IA, avez-vous besoin de l'IA? » CANCA dit. « Parce que chaque fois que vous ajoutez un nouvel outil, vous ajoutez un risque.
Des milliers d'officiers ont déjà suivi une formation en utilisant la boîte à outils, et cette année, CANCA a mené une séance de formation pour 60 chefs de police aux États-Unis. L'ONU sera bientôt également déployée au niveau exécutif dans cinq pays européens.
Les utilisations de la reconnaissance faciale comme l'IA ont attiré le plus d'attention, mais la police utilise également l'IA pour des choses plus simples comme la génération de transcriptions de texte à texte pour les images de la caméra corporelle, le déchiffrement des numéros de plaque d'immatriculation dans des vidéos floues et même la détermination des horaires de patrouille.
Toutes ces utilisations, aussi mineures elles peuvent paraître mineures, viennent avec des risques éthiques inhérents si les agences ne comprennent pas les limites de l'IA et où il est le mieux utilisé, dit Canca.
« La chose la plus importante est de nous assurer que chaque fois que nous créons un outil d'IA pour l'application de la loi, nous avons une compréhension aussi claire que possible de la probabilité de l'échouer, où elle pourrait échouer et comment nous pouvons nous assurer que les services de police savent que cela pourrait échouer de ces manières particulières », explique CANCA.
Même si une agence prétend avoir besoin ou veut utiliser l'IA, la question la plus importante est de savoir s'il est prêt à déployer l'IA. La boîte à outils est conçue pour amener les forces de l'ordre à réfléchir à ce qui convient le mieux à leur situation. Un département pourrait être prêt à développer son propre outil d'IA comme un centre de criminalité en temps réel. Cependant, la plupart qui sont prêts à adopter la technologie sont plus susceptibles de la procurer auprès d'un fournisseur tiers, explique CANCA.
Dans le même temps, il est important que les agences reconnaissent également quand elles ne sont pas encore prêtes à utiliser l'IA.
« Si vous n'êtes pas prêt – si vous ne pouvez pas protéger les données, si vous ne pouvez pas vous assurer de niveaux de confidentialité adéquats, si vous ne pouvez pas vérifier les biais, essentiellement si votre agence n'est pas en mesure d'évaluer et de surveiller la technologie pour ses risques et d'atténuer ces risques – alors vous ne devriez probablement pas encore aller super ambitieux et commencer à construire ces muscles d'éthique lorsque vous vous engagez lentement avec les systèmes AI, » dit Canca.
CANCA note que la boîte à outils n'est pas une taille unique. Chaque secteur, qu'il s'agisse de police ou d'éducation, a son propre cadre éthique qui nécessite une approche légèrement différente qui est sensible aux problèmes éthiques spécifiques de ce secteur.
« La police n'est pas détachée de l'éthique » et a son propre ensemble de questions éthiques et de critiques, dit CANCA, y compris « une très longue lignée de biais historiques ».
Comprendre ces biais est essentiel lors de la mise en œuvre d'outils qui pourraient potentiellement recréer ces biais, créant un cercle vicieux de la technologie et de la pratique de la police.
« Il y a des districts qui ont été surprise historiquement, donc si vous regardez simplement ces données, vous êtes susceptible de surpasser à nouveau ces zones », explique CANCA. « Alors la question devient: » Si nous comprenons que c'est le cas, comment pouvons-nous atténuer le risque de discrimination, comment pouvons-nous compléter les données ou garantir que l'outil est utilisé aux bonnes fins? « »
L'objectif de la boîte à outils est d'éviter ces pièges éthiques en faisant conscience des officiers que les humains sont toujours un élément essentiel de l'IA. Un système d'IA pourrait être en mesure d'analyser une ville et de suggérer quelles zones pourraient avoir besoin de plus d'assistance en fonction des données sur la criminalité, mais il appartient aux humains de décider si un quartier spécifique pourrait avoir besoin de plus d'agents de patrouille ou peut-être des travailleurs sociaux et des professionnels de la santé mentale.
« La police n'est pas formée pour poser les bonnes questions autour de la technologie et de l'éthique », explique Canca. « Nous devons être là pour les guider et pousser les fournisseurs de technologies pour créer de meilleures technologies. »
