Une étude met en évidence une relation compliquée entre l'IA et l'application de la loi

Une étude met en évidence une relation compliquée entre l’IA et l’application de la loi

Vues des technologies d’IA et de la technologie de conduite autonome. Crédit: Sciences appliquées (2023). DOI : 10.3390/app13063887

Une étude récente qui a examiné la relation entre l’intelligence artificielle (IA) et l’application de la loi souligne à la fois la nécessité pour les forces de l’ordre de participer à l’élaboration de politiques publiques concernant l’IA – telles que les réglementations régissant les véhicules autonomes – et la nécessité pour les forces de l’ordre pour mieux comprendre les limites et les enjeux éthiques des technologies de l’IA.

« Les forces de l’ordre ont un rôle crucial à jouer dans la mise en œuvre des politiques publiques liées aux technologies de l’IA », déclare Veljko Dubljević, auteur correspondant de l’étude et professeur agrégé de science, technologie et société à la North Carolina State University.

« Par exemple, les agents devront savoir comment procéder s’ils arrêtent un véhicule conduit de manière autonome pour une infraction au code de la route. D’ailleurs, ils devront savoir comment arrêter un véhicule conduit de manière autonome. En raison de leur rôle dans maintenir l’ordre public, il est important que les forces de l’ordre aient un siège à la table de l’élaboration de ces politiques. »

« En outre, il existe un certain nombre de technologies alimentées par l’IA qui sont déjà utilisées par les forces de l’ordre et conçues pour les aider à prévenir et à répondre au crime », déclare Ronald Dempsey, premier auteur de l’étude et ancien étudiant diplômé de Etat NC. « Celles-ci vont des technologies de reconnaissance faciale aux technologies conçues pour détecter les coups de feu et informer les forces de l’ordre compétentes. »

« Cependant, notre étude suggère que de nombreux agents ne comprennent pas comment ces technologies fonctionnent, ce qui rend difficile ou impossible pour eux d’apprécier les limites et les risques éthiques de ces technologies. Et cela peut poser des problèmes importants tant pour les forces de l’ordre que pour le public.  »

Pour cette étude, les chercheurs ont mené des entretiens approfondis avec 20 professionnels de l’application de la loi qui travaillent en Caroline du Nord. Les entrevues ont porté sur une gamme de questions, y compris les valeurs et les qualités que les participants à l’étude jugeaient essentielles pour les agents chargés de l’application de la loi.

Bien qu’il n’y ait pas eu de consensus parmi la majorité des participants à l’étude, plusieurs caractéristiques sont apparues à plusieurs reprises comme des qualités importantes pour un professionnel de l’application de la loi, l’intégrité, l’honnêteté et l’empathie étant les plus souvent citées.

« Il est précieux de comprendre ce que les forces de l’ordre considèrent comme des caractéristiques souhaitables chez les agents, car ces caractéristiques peuvent éclairer l’élaboration de directives de conception responsables pour les technologies d’IA que les forces de l’ordre utiliseront », a déclaré Dempsey.

« Les directives de conception peuvent être utilisées pour éclairer la prise de décision en matière d’IA, et il est plus facile pour les utilisateurs finaux de travailler avec des outils d’IA si les valeurs guidant les décisions d’IA sont cohérentes, ou du moins pas en conflit, avec les valeurs des utilisateurs finaux », dit Dubljević.

Les chercheurs ont également interrogé les participants à l’étude sur leur point de vue sur l’IA en général, ainsi que sur les technologies d’IA existantes et émergentes.

« Nous avons constaté que les participants à l’étude n’étaient pas familiers avec l’IA ou avec les limites des technologies d’IA », explique Jim Brunet, co-auteur de l’étude et directeur de la Public Safety Leadership Initiative de NC State. « Cela comprenait les technologies d’intelligence artificielle que les participants avaient utilisées au travail, telles que la reconnaissance faciale et les technologies de détection de coups de feu. Cependant, les participants à l’étude ont exprimé leur soutien à ces outils, qu’ils estimaient précieux pour les forces de l’ordre. »

Les participants à l’étude ont également exprimé leur inquiétude quant à l’avenir des véhicules autonomes et aux défis qu’ils pourraient poser à la communauté des forces de l’ordre.

« Cependant, les participants à l’étude ont déclaré qu’ils accueilleraient favorablement l’utilisation publique de véhicules autonomes si cela réduisait les accidents de voiture », déclare Dubljević. « Plus précisément, les participants ont accueilli favorablement l’idée de passer moins de temps à répondre aux accidents de la route, ce qui leur permettrait de se concentrer sur la lutte contre la criminalité. »

« Il y a toujours des dangers lorsque les forces de l’ordre adoptent des technologies qui n’ont pas été développées en pensant aux forces de l’ordre », déclare Brunet. « Cela s’applique certainement aux technologies d’IA telles que la reconnaissance faciale. Par conséquent, il est essentiel que les responsables de l’application des lois aient une formation sur les dimensions éthiques entourant l’utilisation de ces technologies d’IA. Par exemple, lorsqu’un organisme d’application de la loi choisit de déployer l’IA les outils auront une incidence sur les parties du public qui feront l’objet d’un examen supplémentaire. »

« Il est également important de comprendre que les outils d’IA ne sont pas infaillibles », déclare Dubljević. « L’IA est soumise à des limitations. Et si les responsables de l’application des lois ne comprennent pas ces limitations, ils peuvent accorder plus de valeur à l’IA que ce qui est justifié, ce qui peut poser des problèmes éthiques en soi. »

L’article est publié dans la revue Sciences appliquées.

Fourni par l’Université d’État de Caroline du Nord