Une nouvelle étude propose une meilleure façon de rendre l’IA plus équitable pour tous

Une nouvelle étude propose une meilleure façon de rendre l’IA plus équitable pour tous

Dans un nouvel article, des chercheurs de l’Université Carnegie Mellon et du Stevens Institute of Technology présentent une nouvelle façon de penser les impacts équitables des décisions en matière d’IA.

Ils s’appuient sur une tradition bien établie connue sous le nom d’optimisation du bien-être social, qui vise à rendre les décisions plus équitables en se concentrant sur les avantages et les inconvénients globaux pour les individus. Cette méthode peut être utilisée pour évaluer les outils d’évaluation standard de l’industrie pour l’équité de l’IA, qui examinent les taux d’approbation des groupes protégés.

« En évaluant l'équité, la communauté de l'IA essaie d'assurer un traitement équitable aux groupes qui diffèrent par leur niveau économique, leur race, leur origine ethnique, leur sexe et d'autres catégories », a expliqué John Hooker, professeur de recherche opérationnelle à la Tepper School of Business de Carnegie Mellon. , qui a co-écrit l'étude et présenté l'article à la Conférence internationale sur l'intégration de la programmation par contraintes, de l'intelligence artificielle et de la recherche opérationnelle (CPAIOR) le 29 mai à Uppsala, en Suède. Le journal a reçu le prix du meilleur article.

Imaginez une situation dans laquelle un système d'IA décide qui obtient l'approbation d'un prêt hypothécaire ou qui obtient un entretien d'embauche. Les méthodes traditionnelles d’équité pourraient uniquement garantir que le même pourcentage de personnes issues de différents groupes soit approuvé.

Mais que se passerait-il si le refus d’un prêt hypothécaire avait un impact négatif bien plus important sur une personne issue d’un groupe défavorisé que sur une personne issue d’un groupe favorisé ? En employant une méthode d’optimisation du bien-être social, les systèmes d’IA peuvent prendre des décisions qui conduisent à de meilleurs résultats pour tout le monde, en particulier pour les groupes défavorisés.

L'étude se concentre sur « l'équité alpha », une méthode permettant de trouver un équilibre entre l'équité et l'obtention du meilleur bénéfice pour chacun. L'équité Alpha peut être ajustée pour équilibrer plus ou moins l'équité et l'efficacité, en fonction de la situation.

Hooker et ses co-auteurs montrent comment l’optimisation du bien-être social peut être utilisée pour comparer différentes évaluations de l’équité de groupe actuellement utilisées en IA. En utilisant cette méthode, nous pouvons comprendre les avantages de l’application de différents outils d’équité collective dans différents contextes. Il relie également ces outils d’évaluation de l’équité de groupe au monde plus vaste des normes d’équité et d’efficacité utilisées en économie et en ingénierie.

Derek Leben, professeur agrégé d'éthique des affaires à la Tepper School, et Violet Chen, professeure adjointe au Stevens Institute of Technology, qui a obtenu son doctorat. de l'école Tepper, a co-écrit l'étude.

« Nos résultats suggèrent que l'optimisation du bien-être social peut faire la lumière sur la question très discutée de savoir comment parvenir à l'équité de groupe dans l'IA », a déclaré Leben.

L’étude est importante à la fois pour les développeurs de systèmes d’IA et pour les décideurs politiques. Les développeurs peuvent créer des modèles d’IA plus équitables et plus efficaces en adoptant une approche plus large de l’équité et en comprenant les limites des mesures d’équité. Il souligne également l’importance de prendre en compte la justice sociale dans le développement de l’IA, en veillant à ce que la technologie favorise l’équité entre les divers groupes de la société.

L’article est publié dans les actes du CPAIOR 2024.