Un nouveau cadre d’atténuation réduit les biais dans les résultats de classification

Un nouveau cadre d’atténuation réduit les biais dans les résultats de classification

Nous utilisons des ordinateurs pour nous aider à prendre (espérons-le) des décisions impartiales. Le problème est que les algorithmes d’apprentissage automatique n’effectuent pas toujours des classifications équitables si des préjugés humains sont intégrés dans les données utilisées pour les former, ce qui est souvent le cas dans la pratique.

Pour atténuer cette situation de « déchets entrants, déchets sortants », une équipe de recherche a présenté un cadre flexible pour atténuer les biais dans la classification des machines. Leurs recherches ont été publiées dans Informatique intelligente.

Selon l’équipe, les tentatives existantes visant à atténuer les biais de classification sont souvent freinées par leur dépendance à l’égard de mesures spécifiques d’équité et de termes de biais prédéterminés. Le cadre de l'équipe évite ces deux types de dépendance ; leur atténuation des biais peut être évaluée selon différentes mesures d’équité, et ils déduisent des termes de biais spécifiques à partir des données.

L’équipe a évalué le cadre sur sept ensembles de données répartis sur 21 classificateurs de machines. Au fil des expériences, les biais dans les résultats de la classification sont considérablement réduits, la précision de la classification étant largement préservée, ce qui fonctionne de manière souhaitable dans le cadre du compromis équité-utilité.

Le cadre partage la configuration de la méthode de débiaisation contradictoire, en considérant un scénario de proposition-révision entre Alice, par exemple l'entreprise, et Bob, par exemple le régulateur. Alice envoie une proposition à Bob pour utiliser ses données pour développer un classificateur cible, par exemple un système de correspondance universitaire.

Bob examine la proposition et vise à s'assurer que la classification d'Alice ne démontre pas de biais substantiel dans une dimension sensible qu'il vise à protéger, par exemple, l'expérience de transfert des élèves au collège. L'objectif est de créer un classificateur ayant une discrimination minimale le long de la ou des dimensions protégées avec seulement un petit sacrifice de performances dans la classification cible.

L'atténuation des biais est obtenue en identifiant les attributs de données susceptibles d'introduire des biais, puis en appliquant des transformations de données efficaces aux enregistrements sous ces attributs.

Cela implique d'évaluer la contribution des attributs à la séparation des données, de calculer les distances entre les attributs et d'établir avec ces distances une cartographie biais-attribut dans l'hyperespace de biais construit. Grâce à cette cartographie, les termes de biais sont déduits, les attributs sujets aux biais sont reconnus et leurs concentrations de biais sont mesurées.

Cependant, le flux de travail peut rencontrer des difficultés lorsqu'il est appliqué à de grands ensembles de données en raison de limitations d'évolutivité, entre autres facteurs.

Dans le cadre de recherches futures, l’équipe souhaite étendre le cadre pour trouver directement un équilibre entre l’équité et l’exactitude de la classification, en tenant compte du conflit potentiel entre les secteurs public et privé. D'un point de vue plus large, l'intégration de caractéristiques comportementales dans l'atténuation des biais de classification et l'analyse des configurations pratiques dans l'application de tels cadres constituent une direction importante.