Une femme a passé six mois en prison parce qu’une IA avait commis une erreur. Le pire c'est que personne ne l'a vérifié

Une femme a passé six mois en prison parce qu’une IA avait commis une erreur. Le pire c'est que personne ne l'a vérifié

Angela Lipps est une résidente du Tennessee (États-Unis) qui n'a jamais pris l'avion ni fait de voyage dans d'autres États du pays. Elle s'est quand même retrouvée dans une cellule de sécurité à 2 000 km de chez elle pour une raison terrifiante : un logiciel de reconnaissance faciale par IA a décidé que son visage correspondait à celui d'un escroc opérant dans le Dakota du Nord.

Nous l'avons. Tout a commencé avec l’indice donné par les caméras de sécurité. La police de Fargo enquêtait sur une fraude bancaire dans laquelle une femme utilisait de fausses cartes d'identité militaires pour retirer d'énormes sommes d'argent. Les détectives en charge du dossier ont décidé de confier le travail de reconnaissance des images des caméras de sécurité à un logiciel de reconnaissance faciale avec IA, et après analyse, le système a renvoyé un nom : Angela Lipps. Un agent a jeté un œil à ses réseaux sociaux, a décidé que son corps et sa coiffure correspondaient à ceux du suspect et a signé le mandat d'arrêt.

Comme dans les films. Une équipe des US Marshals s'est présentée au domicile de Lipps dans le Tennessee et l'a arrêtée sous la menace d'une arme. Elle gardait quatre enfants, mais cela n'avait pas d'importance : elle était traitée comme une fugitive de la justice. Ils ne lui ont posé aucune question préalable et n’ont pas non plus comparé sa version. Ils n'avaient même pas de preuve physique la plaçant dans le Dakota du Nord au-delà de ce que le système de reconnaissance faciale avait indiqué. Et puisque l’IA le disait, ça devait être vrai, non ?

Six mois de prison (et dans les limbes). Considérée comme une fugitive, Lipps n'était pas éligible à la libération sous caution et a passé 108 jours dans une prison du Tennessee en attendant d'être extradée vers un État qu'elle n'avait jamais visité. Puis, fin octobre, elle a été transférée dans une prison du Dakota du Nord. Pendant tout ce temps, personne au département de police de Fargo n'a même pris la peine de vérifier si le suspect avait un alibi car, encore une fois, il n'était pas nécessaire de vérifier : l'IA ne pouvait pas échouer. Du moins, selon les forces de police en charge du dossier.

Zasca. Le plus drôle, c'est que prouver l'innocence de Lipps était vraiment facile. Lorsqu'un défenseur public a finalement examiné les relevés bancaires du suspect, l'affaire s'est effondrée. Pendant que l'escroc volait des milliers de dollars dans le Dakota du Nord, Angela Lipps achetait du tabac dans une station-service du Tennessee, utilisait Uber Eats et encaissait son chèque de sécurité sociale dans sa ville natale. Les relevés GPS et bancaires constituaient des preuves définitives et irréfutables.

Rentre à la maison, reviens. Le 24 décembre, la veille de Noël, le parquet chargé de traiter l'affaire a abandonné les charges retenues contre elle et Angela Lipps a été libérée. Bien sûr : ils l'ont fait sans plus attendre, dans la rue, dans un état qu'elle ne connaissait pas et où il faisait très froid alors qu'elle avait été arrêtée en tenue d'été. Les avocats de la défense étaient chargés de lui payer un hôtel et une autre ONG appelée F5 Project l'a aidé à rentrer chez lui.

La tragédie ne s'arrête pas là. Le problème est que son retour au Tennessee n’a pas été heureux du tout. Durant les six mois qu'il a passés en prison, Lipps n'a pas pu payer ses factures et a fini par perdre sa maison, sa voiture, ses économies et même son chien. Le chef de la police de Fargo, qui tenait une conférence de presse pour marquer son départ à la retraite, n'a même pas voulu répondre aux questions sur l'affaire. Il n’y a eu aucune excuse officielle ni compensation pour cette énorme erreur policière.

Ce n'est pas la première fois, mais il semble incroyable que ce ne soit pas la dernière. Nous ne savons pas ce qui va se passer avec ce scandale, mais ce n’est pas le premier du genre. Aux États-Unis, on arrête depuis un certain temps des suspects à l’aide de systèmes de reconnaissance faciale, mais ces systèmes échouent et conduisent à l’arrestation de personnes innocentes. Ce type de problème de mauvaise application des outils d'IA dans les enquêtes criminelles est présent en Espagne, où nous avons déjà parlé des conséquences tragiques de l'utilisation de VioGén ou de ce qui s'est passé avec le système de détection des fausses plaintes il y a à peine un an. L’IA peut aider, mais dans ce type de processus, la supervision humaine est particulièrement cruciale.

Images | Simseo avec Freepik

À Simseo | Les vidéos d’IA ont brisé les algorithmes d’Instagram et de TikTok. Bienvenue dans les nouveaux « AI dumps »