La recherche remet en question l’idée que le biais est un défaut technique
Les chercheurs remettent en question la croyance généralisée que le biais induit par l’IA est un défaut technique, arguant plutôt que l’IA est profondément influencée par la dynamique du pouvoir sociétal. Il apprend des données historiques façonnées par les biais humains, absorbant et perpétuant la discrimination dans le processus. Cela signifie que, plutôt que de créer des inégalités, l’IA reproduit et le renforce.
La recherche est publiée dans la revue Prévision technologique et changement social.
« Notre étude met en évidence des exemples du monde réel où l’IA a renforcé les biais existants », explique le professeur Bircan. « Un cas frappant est l’outil d’embauche à Amazon, qui a été constaté pour favoriser les candidats masculins, renforçant finalement les disparités entre les sexes sur le marché du travail.
« De même, les systèmes de détection de fraude d’IA du gouvernement ont accusé à tort les familles, en particulier les migrants, de fraude, entraînant de graves conséquences pour les personnes touchées. Ces cas démontrent comment l’IA, plutôt que d’éliminer les biais, peut finir par amplifier la discrimination lorsqu’elle n’est pas contrôlée.
« Sans transparence et responsabilité, l’IA risque de devenir un outil qui renforce les hiérarchies sociales existantes plutôt que de les défier. »
L’IA est développée dans un écosystème plus large où les entreprises, les développeurs et les décideurs prennent des décisions critiques concernant sa conception et son utilisation. Ces choix déterminent si l’IA réduit ou aggrave l’inégalité. Lorsqu’elles sont formées sur des données reflétant les biais sociétaux, les systèmes d’IA reproduisent la discrimination dans des zones à enjeux élevés comme l’embauche, la police et la distribution du bien-être.
Les recherches du professeur Bircan soulignent que la gouvernance de l’IA doit s’étendre au-delà des entreprises technologiques et des développeurs. Étant donné que l’IA s’appuie sur des données générées par l’utilisateur, il doit y avoir une plus grande transparence et inclusivité dans la façon dont il est conçu, déployé et réglementé. Sinon, l’IA continuera d’approfondir la fracture numérique et d’élargir les disparités socio-économiques.
Malgré les défis, l’étude offre également de l’espoir. « Plutôt que d’accepter les défauts de l’IA comme inévitables, notre travail préconise des politiques et des cadres proactifs qui garantissent que l’IA dessert la justice sociale plutôt que de le miner.
