Intégrer l’équité dans l’IA est crucial et difficile à réaliser
La capacité de l'intelligence artificielle à traiter et analyser de grandes quantités de données a révolutionné les processus de prise de décision, rendant les opérations dans les domaines des soins de santé, de la finance, de la justice pénale et d'autres secteurs de la société plus efficaces et, dans de nombreux cas, plus efficaces.
Ce pouvoir de transformation s’accompagne toutefois d’une responsabilité importante : la nécessité de garantir que ces technologies sont développées et déployées de manière équitable et juste. En bref, l’IA doit être juste.
La recherche de l’équité dans l’IA n’est pas simplement un impératif éthique mais une exigence afin de favoriser la confiance, l’inclusivité et le progrès technologique responsable. Cependant, garantir que l’IA soit équitable constitue un défi majeur. Et en plus de cela, mes recherches en tant qu’informaticien qui étudie l’IA montrent que les tentatives visant à garantir l’équité dans l’IA peuvent avoir des conséquences inattendues.
Pourquoi l'équité dans l'IA est importante
L’équité dans l’IA est devenue un domaine d’intérêt essentiel pour les chercheurs, les développeurs et les décideurs politiques. Cela transcende les réalisations techniques et touche aux dimensions éthiques, sociales et juridiques de la technologie.
D’un point de vue éthique, l’équité est la pierre angulaire de l’instauration de la confiance et de l’acceptation des systèmes d’IA. Les gens doivent avoir confiance que les décisions en matière d’IA qui affectent leur vie (par exemple, le recrutement d’algorithmes) sont prises de manière équitable. Sur le plan social, les systèmes d’IA qui incarnent l’équité peuvent aider à lutter contre et à atténuer les préjugés historiques, par exemple ceux à l’encontre des femmes et des minorités, favorisant ainsi l’inclusivité. Sur le plan juridique, l’intégration de l’équité dans les systèmes d’IA contribue à aligner ces systèmes sur les lois et réglementations anti-discrimination du monde entier.
L'injustice peut provenir de deux sources principales : les données d'entrée et les algorithmes. La recherche a montré que les données d’entrée peuvent perpétuer les préjugés dans divers secteurs de la société. Par exemple, lors du recrutement, les algorithmes traitant des données qui reflètent des préjugés sociétaux ou manquent de diversité peuvent perpétuer les préjugés « comme moi ». Ces biais favorisent les candidats qui s'apparentent aux décideurs ou à ceux déjà présents dans une organisation. Lorsque des données biaisées sont ensuite utilisées pour entraîner un algorithme d’apprentissage automatique afin d’aider un décideur, l’algorithme peut propager et même amplifier ces biais.
Pourquoi l'équité dans l'IA est difficile
L'équité est intrinsèquement subjective, influencée par des perspectives culturelles, sociales et personnelles. Dans le contexte de l’IA, les chercheurs, les développeurs et les décideurs politiques traduisent souvent l’équité par l’idée selon laquelle les algorithmes ne devraient pas perpétuer ou exacerber les préjugés ou les inégalités existants.
Cependant, mesurer l’équité et l’intégrer dans les systèmes d’IA se heurte à de nombreuses décisions subjectives et à des difficultés techniques. Les chercheurs et les décideurs politiques ont proposé diverses définitions de l’équité, telles que la parité démographique, l’égalité des chances et l’équité individuelle.
Ces définitions impliquent différentes formulations mathématiques et philosophies sous-jacentes. Ils sont aussi souvent contradictoires, soulignant la difficulté de satisfaire simultanément à tous les critères d’équité dans la pratique.
De plus, l’équité ne peut être résumée dans une seule mesure ou ligne directrice. Il englobe un éventail de considérations, notamment l’égalité des chances, de traitement et d’impact.
Effets involontaires sur l'équité
La nature multiforme de l’équité signifie que les systèmes d’IA doivent être examinés à chaque niveau de leur cycle de développement, depuis les phases initiales de conception et de collecte de données jusqu’à leur déploiement final et leur évaluation continue. Cet examen révèle une autre couche de complexité. Les systèmes d’IA sont rarement déployés de manière isolée. Ils sont utilisés dans le cadre de processus décisionnels souvent complexes et importants, tels que la formulation de recommandations sur l'embauche ou l'allocation de fonds et de ressources, et sont soumis à de nombreuses contraintes, notamment en matière de sécurité et de confidentialité.
Les recherches que mes collègues et moi avons menées montrent que des contraintes telles que les ressources informatiques, les types de matériel et la confidentialité peuvent influencer considérablement l'équité des systèmes d'IA. Par exemple, le besoin d’efficacité informatique peut conduire à des simplifications qui négligent ou dénaturent par inadvertance les groupes marginalisés.
Dans notre étude sur l’élagage du réseau, une méthode permettant de rendre les modèles complexes d’apprentissage automatique plus petits et plus rapides, nous avons constaté que ce processus peut affecter injustement certains groupes. Cela se produit parce que l'élagage peut ne pas prendre en compte la manière dont les différents groupes sont représentés dans les données et par le modèle, ce qui conduit à des résultats biaisés.
De même, les techniques de préservation de la vie privée, bien que cruciales, peuvent masquer les données nécessaires pour identifier et atténuer les préjugés ou affecter de manière disproportionnée les résultats pour les minorités. Par exemple, lorsque les organismes statistiques ajoutent du bruit aux données pour protéger la vie privée, cela peut conduire à une allocation injuste des ressources, car le bruit supplémentaire affecte davantage certains groupes que d’autres. Cette disproportion peut également fausser les processus décisionnels qui s’appuient sur ces données, comme l’allocation des ressources aux services publics.
Ces contraintes n’agissent pas de manière isolée mais se recoupent de manière à aggraver leur impact sur l’équité. Par exemple, lorsque les mesures de protection de la vie privée exacerbent les biais dans les données, cela peut encore amplifier les inégalités existantes. Il est donc important d’avoir une compréhension et une approche globale de la confidentialité et de l’équité pour le développement de l’IA.
La voie à suivre
Rendre l’IA équitable n’est pas simple et il n’existe pas de solution universelle. Cela nécessite un processus d’apprentissage, d’adaptation et de collaboration continus. Étant donné que les préjugés sont omniprésents dans la société, je pense que les personnes travaillant dans le domaine de l’IA devraient reconnaître qu’il n’est pas possible d’atteindre une équité parfaite et s’efforcer plutôt de s’améliorer continuellement.
Ce défi nécessite un engagement en faveur d’une recherche rigoureuse, d’une élaboration de politiques réfléchies et d’une pratique éthique. Pour que cela fonctionne, les chercheurs, les développeurs et les utilisateurs de l’IA devront veiller à ce que les considérations d’équité soient intégrées à tous les aspects du pipeline de l’IA, depuis sa conception en passant par la collecte de données et la conception d’algorithmes jusqu’au déploiement et au-delà.
Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lisez l'article original.