Les préjugés raciaux dans l'intelligence artificielle limitent l'accès vital aux soins de santé et aux services financiers, selon un scientifique des données

Les préjugés raciaux dans l’intelligence artificielle limitent l’accès vital aux soins de santé et aux services financiers, selon un scientifique des données

Crédit : domaine public CC0

L’intelligence artificielle fait partie intégrante de la vie moderne et est utilisée par des institutions vitales, des banques aux forces de police. Mais une montagne croissante de preuves suggère que l’IA utilisée par ces organisations peut enraciner le racisme systémique.

Selon un expert du secteur, cela peut avoir un impact négatif sur les Noirs et les minorités ethniques lorsqu’ils demandent un prêt hypothécaire ou recherchent des soins de santé.

Affronter les préjugés

Calvin D Lawrence est ingénieur émérite chez IBM. Il a rassemblé des preuves pour montrer que la technologie utilisée par les systèmes policiers et judiciaires contient des préjugés inhérents découlant de préjugés humains et de préférences systémiques ou institutionnelles. Mais, dit-il, il y a des mesures que les développeurs et les technologues en IA peuvent prendre pour rétablir l’équilibre.

Lawrence a déclaré : « L’IA est un mécanisme incontournable de la société moderne, et elle affecte tout le monde, mais ses préjugés internes sont rarement confrontés – et je pense qu’il est temps que nous nous en occupions. »

Dans son nouveau livre, « Hidden in White Sight », publié aujourd’hui, Lawrence explore l’étendue de l’utilisation de l’IA aux États-Unis et en Europe, y compris les services de santé, la politique, la publicité, la banque, l’éducation et la demande et l’obtention de prêts.

« Hidden in White Sight » révèle la triste réalité que les résultats de l’IA peuvent restreindre ceux qui ont le plus besoin de ces services.

Lawrence a ajouté : « L’intelligence artificielle était censée être le grand égalisateur social qui aide à promouvoir l’équité en supprimant les préjugés humains, mais en fait, j’ai découvert dans mes recherches et dans ma propre vie que c’est loin d’être le cas. »

Un outil pour la société

Lawrence conçoit et développe des logiciels depuis trente ans, travaillant sur de nombreux systèmes basés sur l’IA à l’armée américaine, à la NASA, à Sun Microsystems et à IBM.

Fort de son expertise et de son expérience, Lawrence conseille les lecteurs sur ce qu’ils peuvent faire pour lutter contre cela et sur la manière dont les développeurs et les technologues peuvent construire des systèmes plus équitables.

Ces recommandations incluent des tests de qualité rigoureux des systèmes d’IA, une transparence totale des ensembles de données, des désinscriptions viables et un « droit à l’oubli » intégré. Lawrence suggère également que les gens devraient pouvoir vérifier facilement quelles données sont détenues par rapport à leur nom et avoir un accès clair à un recours si les données sont inexactes.

Lawrence a ajouté : « Ce n’est pas un problème qui ne concerne qu’un groupe de personnes, c’est un problème de société. Il s’agit de savoir qui nous voulons être en tant que société et si nous voulons contrôler la technologie, ou si nous le voulons. pour nous contrôler.

« J’exhorte tous ceux qui ont un siège à la table, que vous soyez un PDG ou un développeur technologique ou quelqu’un qui utilise l’IA dans votre vie quotidienne, à être intentionnel avec la façon dont vous utilisez cet outil puissant. »

Fourni par Taylor & Francis