Des chercheurs effectuent une revue critique de la littérature sur l’équité et l’IA sur le marché du travail
Carlotta Rigotti et Eduard Fosch-Villaronga ont publié un nouvel article qui propose une revue de la littérature perspicace et critique sur l’équité et l’IA sur le marché du travail dans le cadre du projet BIAS.
L’adoption toujours croissante des technologies de l’IA dans le paysage du recrutement pour améliorer l’efficacité des ressources humaines soulève des questions sur les implications de la prise de décision algorithmique sur l’emploi, en particulier pour les candidats à un emploi, y compris ceux qui courent un risque plus élevé de discrimination sociale.
Entre autres concepts, tels que la transparence et la responsabilité, l’équité est devenue cruciale dans les débats sur le recrutement d’IA en raison de la reproduction potentielle de préjugés et de discrimination qui peuvent affecter de manière disproportionnée certains groupes vulnérables. Cependant, les idéaux et les ambitions d’équité peuvent avoir des significations différentes pour les différentes parties prenantes.
Pour combler cette lacune, Rigotti et Fosch-Villaronga ont travaillé sur un projet européen intitulé « Fairness, AI & Recruitment » publié dans la revue Revue du droit et de la sécurité informatique. Cet article, qui fait partie du projet HE BIAS, propose une revue critique de la littérature sur l’intersection de l’équité et de l’IA sur le marché du travail.
Il est essentiel de conceptualiser l’équité car elle peut fournir une référence claire pour évaluer et atténuer les préjugés, garantissant que les systèmes d’IA ne perpétuent pas les déséquilibres existants et favorisent, dans ce cas, des opportunités équitables pour tous les candidats sur le marché du travail.
Revue de la littérature
À cette fin, Carlotta et Eduard ont mené une revue de la littérature sur l’équité dans les applications d’IA à des fins de recrutement et de sélection, en mettant un accent particulier sur sa définition, sa catégorisation et sa mise en œuvre pratique.
Ils ont commencé par expliquer comment les applications d’IA sont de plus en plus utilisées dans le processus de recrutement, notamment pour accroître l’efficacité de l’équipe RH. Ensuite, ils ont évoqué les limites de cette innovation technologique, connue pour présenter un risque élevé de violation de la vie privée et de discrimination sociale.
Dans ce contexte, Carlotta et Eduard se sont concentrés sur la définition et la mise en œuvre de l’équité dans les applications d’IA à des fins de recrutement et de sélection à travers des lentilles interdisciplinaires. Bien que les cadres juridiques applicables et certaines recherches abordent actuellement la question de manière fragmentaire, ils observent et saluent l’émergence de certains efforts interdisciplinaires visant à relever ce défi aux multiples facettes.
Ils concluent l’article par quelques brèves recommandations visant à guider et façonner pour le mieux les recherches et actions futures sur l’équité des applications d’IA dans le processus d’embauche.