Des chercheurs en IA améliorent la méthode pour éliminer les préjugés sexistes dans les machines conçues pour comprendre et répondre aux données textuelles ou vocales

Des chercheurs en IA améliorent la méthode pour éliminer les préjugés sexistes dans les machines conçues pour comprendre et répondre aux données textuelles ou vocales

Crédit : Pixabay/CC0 Domaine public

Les chercheurs ont trouvé un meilleur moyen de réduire les préjugés sexistes dans les modèles de traitement du langage naturel tout en préservant des informations vitales sur la signification des mots, selon une étude récente qui pourrait être une étape clé pour résoudre le problème des préjugés humains qui se glissent dans l’intelligence artificielle.

Bien qu’un ordinateur lui-même soit une machine impartiale, une grande partie des données et de la programmation qui transitent par les ordinateurs sont générées par des humains. Cela peut être un problème lorsque des préjugés humains conscients ou inconscients finissent par se refléter dans les échantillons de texte que les modèles d’IA utilisent pour analyser et « comprendre » le langage.

Les ordinateurs ne sont pas immédiatement capables de comprendre un texte, explique Lei Ding, premier auteur de l’étude et étudiant diplômé au Département des sciences mathématiques et statistiques. Ils ont besoin que les mots soient convertis en un ensemble de nombres pour les comprendre – un processus appelé intégration de mots.

« Le traitement du langage naturel consiste essentiellement à apprendre aux ordinateurs à comprendre les textes et les langues », explique Bei Jiang, professeur agrégé au Département des sciences mathématiques et statistiques.

Une fois que les chercheurs ont franchi cette étape, ils peuvent ensuite tracer des mots sous forme de nombres sur un graphique 2D et visualiser les relations des mots les uns avec les autres. Cela leur permet de mieux comprendre l’étendue du préjugé sexiste et, plus tard, de déterminer si le préjugé a été effectivement éliminé.

Tout le sens, aucun parti pris

Bien que d’autres tentatives pour réduire ou supprimer les préjugés sexistes dans les textes aient réussi dans une certaine mesure, le problème avec ces approches est que les préjugés sexistes ne sont pas la seule chose supprimée des textes.

« Dans de nombreuses méthodes de réduction des préjugés sexistes, lorsqu’elles réduisent le biais dans un vecteur de mots, elles réduisent ou éliminent également des informations importantes sur le mot », explique Jiang. Ce type d’informations est connu sous le nom d’informations sémantiques et offre des données contextuelles importantes qui pourraient être nécessaires dans les tâches futures impliquant ces incorporations de mots.

Par exemple, lorsqu’ils considèrent un mot comme « infirmière », les chercheurs veulent que le système supprime toute information sur le genre associée à ce terme tout en conservant les informations qui le relient à des mots apparentés tels que médecin, hôpital et médecine.

« Nous devons préserver ces informations sémantiques », déclare Ding. « Sans cela, les plongements auraient de très mauvaises performances [in natural language processing tasks and systems]. »

Rapide, précis et équitable

La nouvelle méthodologie a également surpassé les principales méthodes de débiaisation dans diverses tâches évaluées en fonction de l’incorporation de mots.

Au fur et à mesure qu’elle s’affinera, la méthodologie pourrait offrir un cadre flexible que d’autres chercheurs pourraient appliquer à leurs propres incorporations de mots. Tant qu’un chercheur dispose de conseils sur le bon groupe de mots à utiliser, la méthodologie peut être utilisée pour réduire les biais liés à un groupe particulier.

Bien qu’à ce stade, la méthodologie nécessite encore la contribution des chercheurs, Ding explique qu’il pourrait être possible à l’avenir d’avoir une sorte de système ou de filtre intégré qui pourrait automatiquement supprimer les préjugés sexistes dans une variété de contextes.

Publié dans le Actes de la Conférence AAAI sur l’Intelligence Artificiellela nouvelle méthodologie fait partie d’un projet plus vaste, intitulé BIAS : IA responsable pour l’égalité entre les sexes et le marché du travail ethnique, qui cherche à résoudre des problèmes du monde réel.

Par exemple, les personnes lisant la même offre d’emploi peuvent réagir différemment à des mots particuliers de la description qui ont souvent une association de genre. Un système utilisant la méthodologie créée par Ding et ses collaborateurs serait en mesure de signaler les mots susceptibles de modifier la perception d’un candidat potentiel du poste ou sa décision de postuler en raison d’un préjugé sexiste perçu, et de suggérer des mots alternatifs pour réduire ce préjugé.

Bien que de nombreux modèles et systèmes d’IA se concentrent sur la recherche de moyens d’effectuer des tâches avec plus de rapidité et de précision, Ding note que le travail de l’équipe fait partie d’un domaine en pleine croissance qui cherche à faire des progrès concernant un autre aspect important de ces modèles et systèmes.

« Les gens se concentrent davantage sur la responsabilité et l’équité dans les systèmes d’intelligence artificielle. »


Fourni par l’Université de l’Alberta