L’IA aide-t-elle les humains à prendre de meilleures décisions ?  Le parcours d’un juge – avec et sans algorithme – surprend les chercheurs

L’IA aide-t-elle les humains à prendre de meilleures décisions ? Le parcours d’un juge – avec et sans algorithme – surprend les chercheurs

L’intelligence artificielle doit-elle être utilisée pour améliorer la prise de décision au sein des tribunaux ? Selon un nouveau document de travail publié au arXiv serveur de préimpression, non seulement un exemple d'algorithme d'IA ne parvient pas à améliorer la précision des appels judiciaires, mais la technologie à elle seule s'en sort pire que les humains.

« De nombreux chercheurs se sont demandés si l'algorithme avait un biais ou si l'IA avait un biais », a noté le co-auteur Kosuke Imai, professeur de gouvernement et de statistiques. « Ce qu'ils n'ont pas vraiment examiné, c'est comment l'utilisation de l'IA affecte la décision humaine. »

Alors que plusieurs secteurs, notamment la justice pénale, la médecine et même le monde des affaires, utilisent les recommandations de l’IA, les humains sont généralement les décideurs finaux. Les chercheurs en ont tenu compte en comparant les décisions pénales sur la mise en liberté sous caution prises par un seul juge avec les recommandations générées par un système d’IA. Les chercheurs ont spécifiquement analysé l’influence de l’IA sur l’opportunité d’imposer une caution en espèces.

L'essai contrôlé randomisé a été mené dans le comté de Dane, dans le Wisconsin, et s'est concentré sur la question de savoir si les personnes arrêtées avaient été libérées sous leur propre engagement ou soumises à une caution en espèces. Les chercheurs, dirigés par Imai et Jim Greiner, professeur de droit public à l'honorable S. William Green à la Harvard Law School, ont jeté leur dévolu sur les audiences tenues par un juge unique sur une période de 30 mois, entre le milieu de 2017 et la fin de l'année. de 2019. Les données d’arrestation des accusés jusqu’à 24 mois plus tard ont également été analysées.

Les résultats ont montré que l’IA seule avait de moins bons résultats que le juge dans la prédiction des récidivistes – dans ce cas, en imposant une restriction plus stricte en matière de caution en espèces. Dans le même temps, peu ou pas de différence a été constatée entre l’exactitude de la prise de décision par l’homme seul et celle assistée par l’IA. Le juge s’est opposé aux recommandations de l’IA dans un peu plus de 30 % des cas.

« J'ai été surpris par cela », a déclaré Greiner. « Compte tenu des preuves que nous avons citées selon lesquelles les algorithmes peuvent parfois surpasser les décisions humaines, il semble que ce qui s'est passé est que cet algorithme avait été configuré pour être trop sévère. Il s'agissait de surestimer que les personnes arrêtées se comporteraient mal, prédisant qu'elles se comporteraient mal. le faire trop souvent et, par conséquent, recommander des mesures trop sévères. »

Ce problème pourrait être résolu en recalibrant l’algorithme, ont soutenu les professeurs.

« Il est beaucoup plus facile de comprendre puis de corriger l'algorithme ou l'IA que l'humain », a déclaré Imai. « Il est beaucoup plus difficile de changer l'humain ou de comprendre pourquoi les humains prennent leurs décisions. »

L’IA étudiée ici ne tenait pas spécifiquement compte de la race, mais se concentrait plutôt sur l’âge et neuf facteurs liés à l’expérience criminelle antérieure. Imai, un expert dans le déploiement de modèles statistiques pour dénoncer le gerrymandering racial, a attribué les inégalités concernant la caution en espèces à divers facteurs sociétaux, notamment liés aux antécédents criminels.

Il a reconnu que les résultats de l'étude pouvaient être préoccupants, mais il a noté que les gens étaient également biaisés. « L'avantage de l'IA ou d'un algorithme est qu'ils peuvent être rendus transparents », a-t-il déclaré. La clé est de disposer d’une IA open source facilement disponible pour une évaluation et une analyse empiriques.

La manière dont le système de justice pénale utilise actuellement l’IA ainsi que les décisions humaines non guidées devraient être étudiées en vue d’apporter des améliorations, a déclaré Greiner. « Je ne sais pas si cela est réconfortant », a-t-il proposé, « mais ma réaction pour les gens qui ont peur ou sont sceptiques à l'égard de l'IA est d'avoir peur et d'être sceptiques à l'égard de l'IA, mais d'être potentiellement encore plus effrayés ou sceptiques à l'égard des décisions humaines non guidées. « 

Il a ajouté que la manière dont le système de justice pénale utilise actuellement l'IA ainsi que les décisions humaines non guidées devraient être étudiées pour apporter des améliorations.

Fourni par la Harvard Gazette

Cette histoire est publiée avec l'aimable autorisation de la Harvard Gazette, le journal officiel de l'Université Harvard. Pour plus d’informations sur l’université, visitez Harvard.edu.