Un ensemble de données photographiques centrées sur l'humain vise à aider à détecter les préjugés de l'IA de manière responsable

Un ensemble de données photographiques centrées sur l'humain vise à aider à détecter les préjugés de l'IA de manière responsable

Une base de données de plus de 10 000 images humaines pour évaluer les biais dans les modèles d'intelligence artificielle (IA) pour la vision par ordinateur centrée sur l'humain est présentée dans Nature cette semaine. Le Fair Human-Centric Image Benchmark (FHIBE), développé par Sony AI, est un ensemble de données éthiques et basées sur le consentement qui peut être utilisé pour évaluer les tâches de vision par ordinateur centrées sur l'humain afin d'identifier et de corriger les préjugés et les stéréotypes.

La vision par ordinateur couvre une gamme d'applications, des véhicules autonomes à la technologie de reconnaissance faciale. De nombreux modèles d’IA utilisés en vision par ordinateur ont été développés à partir d’ensembles de données défectueux qui peuvent avoir été collectés sans consentement, souvent à partir d’images à grande échelle récupérées sur le Web. Il est également connu que les modèles d’IA reflètent des préjugés susceptibles de perpétuer des stéréotypes sexistes, racistes ou autres.

Alice Xiang et ses collègues présentent un ensemble de données d'images qui met en œuvre les meilleures pratiques pour un certain nombre de facteurs, notamment le consentement, la diversité et la confidentialité. FHIBE comprend 10 318 images de 1 981 personnes provenant de 81 pays ou régions distincts. La base de données comprend des annotations complètes sur les attributs démographiques et physiques, notamment l'âge, la catégorie de pronoms, l'ascendance et la couleur des cheveux et de la peau.

Les participants ont reçu des informations détaillées sur le projet et les risques potentiels pour les aider à fournir un consentement éclairé, conforme aux lois complètes sur la protection des données. Ces fonctionnalités font de la base de données une ressource fiable pour évaluer de manière responsable les biais de l’IA.

Les auteurs comparent FHIBE à 27 ensembles de données existants utilisés dans des applications de vision par ordinateur centrées sur l’humain et constatent que FHIBE établit une norme plus élevée en matière de diversité et de consentement solide pour l’évaluation de l’IA. Il atténue également efficacement les biais, contenant plus d'annotations autodéclarées sur les participants que d'autres ensembles de données, et inclut une proportion notable d'individus généralement sous-représentés.

L’ensemble de données peut être utilisé pour évaluer les modèles d’IA existants pour les tâches de vision par ordinateur et peut découvrir une plus grande variété de biais qu’auparavant, notent les auteurs. Les auteurs reconnaissent que la création de l’ensemble de données était difficile et coûteuse, mais concluent que FHIBE pourrait représenter une étape vers une IA plus fiable.

Fourni par la nature