Quelle est la meilleure voie vers des systèmes d’IA équitables ?
En décembre, l’Union européenne a adopté l’AI Act, la première loi majeure visant à réglementer les technologies relevant de l’intelligence artificielle. La législation aurait pu arriver plus tôt, mais le succès soudain de ChatGPT fin 2022 a exigé que la loi soit mise à jour.
Cependant, la loi de l’UE ne mentionne pas l’équité – une mesure qui examine dans quelle mesure un système évite la discrimination. Le domaine étudiant l’équité dans l’apprentissage automatique (un sous-domaine de l’IA) est relativement nouveau, une réglementation claire est donc encore en développement.
Mike Teodorescu, professeur adjoint à l’École d’information de l’Université de Washington, propose dans un nouvel article que les normes des entreprises privées pour des systèmes d’apprentissage automatique plus équitables éclaireraient la réglementation gouvernementale.
L’article a été publié le 15 février par la Brookings Institution dans le cadre de sa série « L’économie et la réglementation de l’intelligence artificielle et des technologies émergentes ».
UW News s’est entretenu avec Teodorescu à propos du document et du domaine de l’équité de l’apprentissage automatique.
Pour commencer, pourriez-vous expliquer ce qu’est l’équité du machine learning ?
Teodorescu : Il s’agit essentiellement de garantir qu’un algorithme d’apprentissage automatique est équitable pour toutes les catégories d’utilisateurs. Il combine l’informatique, le droit, la philosophie, les systèmes d’information et un peu d’économie.
Par exemple, si vous essayez de créer un logiciel pour automatiser les entretiens d’embauche, vous pourriez demander à un groupe de responsables RH d’interroger de nombreux candidats ayant des parcours et des expériences divers et de recommander un résultat binaire : embaucher ou ne pas embaucher.
Les données issues d’entretiens RH réels peuvent être utilisées pour former et tester un modèle d’apprentissage automatique. À la fin de ce processus, vous obtenez la précision, c’est-à-dire le pourcentage de correction du modèle. Mais ce pourcentage ne reflète pas les performances de l’algorithme lorsqu’il considère certains sous-groupes. La loi américaine interdit la discrimination fondée sur des attributs protégés, notamment le sexe, la race, l’âge, le statut d’ancien combattant, etc.
En termes simples, par exemple, si vous comptez le nombre d’anciens combattants que vous souhaitez embaucher, alors l’algorithme devrait embaucher indépendamment de l’attribut protégé. Bien sûr, cela devient plus complexe à mesure que vous avez plus d’intersections de sous-groupes : vous pouvez avoir la race, l’âge, le statut socio-économique et le sexe.
D’un point de vue pratique, si vous disposez d’un système d’égalité pour des dizaines de valeurs d’attributs protégés, il est peu probable que toutes soient satisfaites en même temps. Je ne pense pas que nous ayons une solution généralisable et nous n’avons pas encore de moyen optimal de vérifier l’équité de l’IA.
Qu’est-il important que le grand public comprenne à propos de l’équité du machine learning ?
Cela aide à comprendre l’équité procédurale, qui examine les méthodes utilisées pour prendre des décisions. Un utilisateur voudra peut-être demander : « Est-ce que je sais si ce logiciel utilise l’apprentissage automatique pour faire des prédictions à mon sujet ? Si oui, quel type d’entrées prend-il ? Puis-je corriger une prédiction incorrecte ? Existe-t-il un mécanisme de rétroaction par lequel Je peux le contester ? »
Ce principe se retrouve d’ailleurs dans les lois sur la protection de la vie privée en Europe et en Californie, où l’on peut s’opposer à l’utilisation de certaines informations. Ce niveau de transparence serait excellent dans le cas où un algorithme d’apprentissage automatique serait appliqué pour prendre une décision vous concernant. Il existe peut-être une option permettant de sélectionner les variables utilisées pour vous montrer certaines annonces. Maintenant, je ne suis pas sûr que ce soit quelque chose que nous verrons dans un avenir très proche, mais c’est quelque chose qui pourrait intéresser les utilisateurs.
Qu’est-ce qui empêche les normes d’équité d’être largement adoptées par les entreprises ?
Je pense que c’est un problème d’incitations. D’un point de vue économique, les entreprises souhaitent commercialiser leurs produits le plus rapidement possible. Si les utilisateurs obtiennent une application qui utilise l’IA de reconnaissance d’image, ils ne liront probablement pas les conditions d’utilisation. Ils ne prendront donc probablement pas le temps de suivre une formation pour savoir si l’outil est équitable ou non. De nombreux utilisateurs ne savent peut-être même pas qu’il est possible qu’un outil soit injuste.
Pour une entreprise à l’heure actuelle, l’incitation à développer de tels systèmes serait de la placer à l’avant-garde technologique et de signaler la qualité – que ses outils d’IA sont plus équitables que ceux de ses concurrents. » Mais si les utilisateurs ne savent pas que cela constitue un problème , ils ne se soucient peut-être pas de savoir quel produit de l’entreprise est le plus équitable. Dans 10 ans probablement, beaucoup plus de gens se soucieront de l’équité, tout comme ils le font de la cybersécurité et de la confidentialité des données. La cybersécurité n’était pas une préoccupation si courante jusqu’à ce que nous ayons beaucoup de ces manquements.
Un exemple de ce que vous expliquez ici serait-il une personne soumettant une candidature à un emploi à une entreprise qui utilise un algorithme d’apprentissage automatique pour trier les candidatures ? Cette personne ne saurait pas nécessairement s’il existe un algorithme d’apprentissage automatique triant ces applications, donc elle ne saurait certainement pas si elles ont été injustement triées.
Justement, et cette inquiétude m’empêche de dormir la nuit. Il existe une mosaïque de réglementations dans différents pays et États, mais il n’existe pas encore de réglementation fédérale complète à ce sujet. Il existe une loi spécifique sur le recrutement automatisé à New York. Il existe également une loi européenne récemment adoptée, qui permet aux personnes de contester ou de déterminer la manière dont leurs données sont utilisées. Un ensemble de directives de la Maison Blanche ont été proposées. À terme, je pense qu’il y aura une loi fédérale.
Pensez-vous que des normes arriveront d’abord, puis entraîneront une véritable réglementation de l’équité de l’apprentissage automatique ?
Oui, les réglementations sont lentes. Il y a de nombreux obstacles à franchir pour adopter une loi. Mais les normes jouent davantage un rôle d’incitation économique. Il existe des normes en matière de cybersécurité, de mesure de la qualité, de WiFi, de Bluetooth, etc., mais nous n’avons pas encore tout à fait accepté de normes en matière d’équité en matière d’apprentissage automatique. Habituellement, une organisation les produit. L’Institute of Electrical and Electronics Engineers (IEEE) propose de nombreuses normes techniques et en suggère même quelques-unes.
Les comités de normalisation au sein de ces organisations rassemblent généralement des personnes de l’industrie, du monde universitaire et du gouvernement, et élaborent des lignes directrices qui peuvent être mises à jour, de sorte qu’il peut y avoir différentes versions d’une norme. Cela offre beaucoup plus de flexibilité que la réglementation. Par exemple, il existe deux normes de fabrication différentes en matière de gestion de la qualité.
La plupart des usines ont des normes les moins strictes, tandis que les normes les plus strictes pour la fabrication de produits médicaux sont très coûteuses et beaucoup plus difficiles à obtenir. En toute honnêteté, vous pourriez voir une norme légère et une autre beaucoup plus complète.
De même, les organismes de normalisation peuvent avoir des exigences en matière d’audit. Une fois qu’une entreprise se conforme à une norme, des audits sont effectués à une certaine fréquence pour s’assurer que les normes continuent d’être respectées. Avoir quelque chose comme ça pour les produits qui utilisent l’apprentissage automatique serait un excellent moyen d’améliorer la responsabilité.
