Comment l’IA peut améliorer la précision de l’identification des témoins oculaires
Imaginez qu'un vol ait eu lieu et que la police demande à des témoins d'identifier un suspect lors d'une file d'attente. « Je me souviens de ses yeux », dit un témoin, tandis qu'un autre déclare simplement : « Je le reconnais ». Le premier témoin sera considéré comme moins digne de confiance en raison d’un biais cognitif connu sous le nom d’effet de justification caractéristique. Cela a à voir avec la façon dont les gens interprètent la confiance et la fiabilité de la mémoire dans le contexte de l'identification d'un témoin oculaire.
Les recherches montrent que les témoins oculaires qui fournissent des descriptions détaillées de caractéristiques soulèvent des doutes, tandis que les déclarations de reconnaissance générales ont tendance à être considérées comme plus précises.
Imaginez maintenant qu'un système d'intelligence artificielle analyse les déclarations des témoins avant qu'elles ne soient évaluées par les forces de l'ordre. À l’aide du traitement du langage naturel, il évalue le langage utilisé par chaque témoin d’un point de vue neutre, non influencé par un éventuel biais humain résultant de l’effet de justification caractéristique. L’IA peut également fournir des scores numériques basés sur la probabilité d’exactitude, aidant ainsi les enquêteurs à se concentrer sur les déclarations qui ont de meilleures chances d’être exactes.
David Dobolyi, professeur adjoint de leadership organisationnel et d'analyse de l'information à la Leeds School of Business, a récemment co-écrit une étude dans le Journal de recherche appliquée en mémoire et cognition qui explore la manière dont les outils d'IA avancés peuvent améliorer la compréhension des déclarations des témoins, atténuer les préjugés et améliorer la prise de décision dans les contextes d'application de la loi.
Dobolyi a déclaré que l’IA et le traitement du langage naturel peuvent fournir des informations plus approfondies sur la fiabilité des témoins oculaires.
« L'analyse traditionnelle était basique : il suffisait de compter les mots. Mais grâce aux récents progrès de l'IA, nous pouvons évaluer les déclarations d'une manière beaucoup plus sophistiquée », a-t-il expliqué.
L'étude, dirigée par Lauren Kelso, étudiante diplômée du département de psychologie de l'Université de Virginie et co-écrite par Jesse Grabman, professeur adjoint de psychologie à l'Université d'État du Nouveau-Mexique, et Chad Dodson, professeur de psychologie à l'Université de Virginie, se concentre sur la façon dont l’IA peut aider les jurés et les forces de l’ordre à évaluer la confiance et l’exactitude des témoins oculaires.
« Ce n'est pas parce que quelqu'un dit qu'il est confiant qu'il a raison. Les pires erreurs viennent de témoins très confiants qui ont en réalité tort », a déclaré Dobolyi.
Dans l'étude, 1 010 participants ont évalué une série d'identifications de témoins oculaires, chacune accompagnée d'une déclaration de confiance. Les participants ont été divisés en quatre groupes : l’un n’a reçu aucune aide de l’IA, tandis que les autres ont reçu différents types de soutien de l’IA, notamment des prédictions sur l’exactitude des identifications et des explications graphiques. Chaque groupe a évalué l'exactitude probable de l'identification du témoin oculaire sur la base d'une justification caractéristique ou de reconnaissance, permettant aux chercheurs d'analyser comment l'assistance de l'IA a influencé leurs jugements.
Les résultats ont indiqué que l’assistance de l’IA réduisait considérablement le biais de justification caractéristique parmi les participants qui trouvaient l’IA utile. Ceux qui percevaient l’IA comme très utile avaient tendance à évaluer de la même manière l’exactitude des déclarations de fonctionnalités et de reconnaissance, surmontant ainsi efficacement les biais. En revanche, les participants qui ne considéraient pas l’IA comme bénéfique ont continué à présenter ce biais.
Même si Dobolyi a mis en garde contre une confiance aveugle dans l’IA, il a déclaré qu’il voyait son potentiel pour soutenir des décisions plus éclairées dans des contextes juridiques.
« Nous voulons des outils qui peuvent aider les gens à prendre de meilleures décisions, moins biaisées, si nous pouvons confirmer leur exactitude », a-t-il déclaré.
À mesure que la recherche évolue, Dobolyi a déclaré qu'il était important de mettre l'accent sur la transparence dans la prise de décision en matière d'IA.
« Il est essentiel que nous comprenions pourquoi une IA fait une recommandation, en particulier dans des situations à enjeux élevés comme les témoignages oculaires », a-t-il déclaré.