Les personnes transgenres, non binaires et handicapées sont plus susceptibles de voir l'IA négativement, montre l'étude
L'IA semble être sur le point de devenir omniprésente. Vous entendez des grondements de l'IA utilisés, quelque part dans les coulisses, au bureau de votre médecin. Vous pensez que cela a peut-être joué un rôle dans l'embauche de décisions lors de votre dernière recherche d'emploi. Parfois – peut-être même souvent – vous l'utilisez vous-même.
Et pourtant, alors que l'IA influence désormais des décisions à enjeux élevés telles que les types de soins médicaux que les gens reçoivent, qui est embauché et ce que les gens voient, ces décisions ne sont pas toujours prises équitablement. La recherche a montré que les biais algorithmiques nuisent souvent aux groupes marginalisés. Les systèmes de reconnaissance faciale ont souvent mal classé les personnes transgenres et non binaires, l'IA utilisée dans l'application des lois peut conduire à l'arrestation injustifiée de Noirs à des taux disproportionnellement élevés, et les systèmes de diagnostic algorithmiques peuvent empêcher les personnes handicapées d'accéder aux soins de santé nécessaires.
Ces inégalités soulèvent une question: les minorités de genre et raciales et les personnes handicapées ont-elles plus d'attitudes négatives envers l'IA que la population générale américaine?
Je suis un érudit de l'informatique sociale qui étudie comment les personnes et les communautés marginalisés utilisent des technologies sociales. Dans une nouvelle étude, mes collègues Samuel Reiji Mayworm, Alexis Shore Ingber, Nazanin Andalibi et moi avons interrogé plus de 700 personnes aux États-Unis, y compris un échantillon représentatif à l'échelle nationale et un échantillon intentionnel de surévaluation d'individus trans, non binaires, handicapés et raciaux. Nous avons interrogé les participants sur leurs attitudes générales envers l'IA: s'ils pensaient que cela améliorerait leur vie ou leur travail, qu'ils le considéraient positivement et s'ils s'attendaient à l'utiliser eux-mêmes à l'avenir.
Les résultats révèlent une fracture frappante. Les participants transgenres, non binaires et handicapés ont rapporté, en moyenne, des attitudes significativement plus négatives envers l'IA que leurs homologues cisgenres et non handicapés. Ces résultats indiquent que lorsque les minorités de genre et les personnes handicapées sont tenues d'utiliser des systèmes d'IA, comme dans les établissements de travail ou de soins de santé, ils peuvent le faire tout en hébergeant de sérieuses préoccupations ou hésitations. Ces résultats remettent en question le récit en vigueur de l'industrie technologique selon laquelle les systèmes d'IA sont inévitables et profiteront à tout le monde.
La perception du public joue un rôle puissant dans la formation de la façon dont l'IA est développée, adoptée et réglementée. La vision de l'IA en tant que bien social s'effondre si elle profite principalement à ceux qui détiennent déjà le pouvoir. Lorsque les gens doivent utiliser l'IA tout en détestant ou en la méfiant simultanément, il peut limiter la participation, éroder la confiance et composer les inégalités.
Genre, handicap et attitudes de l'IA
Les personnes non binaires de notre étude avaient les attitudes d'IA les plus négatives. Les personnes transgenres dans l'ensemble, y compris les hommes trans et les femmes trans, ont également exprimé des attitudes d'IA significativement négatives. Parmi les personnes cisgenres – celles dont l'identité de genre correspond au sexe qui leur a été attribué à la naissance – les femmes ont rapporté plus d'attitudes négatives que les hommes, une tendance faisant écho aux recherches antérieures, mais notre étude ajoute également une dimension importante en examinant également les attitudes non binaires et trans.
Les participants handicapés avaient également des vues significativement plus négatives de l'IA que les participants non handicapés, en particulier ceux qui sont neurodivergents ou qui ont des problèmes de santé mentale.
Ces résultats sont conformes à un ensemble croissant de recherches montrant comment les systèmes d'IA se classent souvent, perpétuent la discrimination envers ou autrement nuisibles trans et handicapés. En particulier, les identités qui défient la catégorisation s'affrontent avec des systèmes d'IA qui sont intrinsèquement conçus pour réduire la complexité en catégories rigides. Ce faisant, les systèmes d'IA simplifient les identités et peuvent reproduire et renforcer les biais et la discrimination – et les gens le remarquent.
Une image plus complexe pour la race
Contrairement à nos résultats sur le sexe et le handicap, nous avons constaté que les personnes de couleur, et les participants noirs en particulier, avaient des opinions plus positives sur l'IA que les participants blancs. Il s'agit d'une découverte surprenante et complexe, étant donné que les recherches antérieures ont largement documenté le biais racial dans les systèmes d'IA, des algorithmes d'embauche discriminatoires à une surveillance disproportionnée.
Nos résultats ne suggèrent pas que l'IA fonctionne bien pour les communautés noires. Ils peuvent plutôt refléter une ouverture pragmatique ou pleine d'espoir au potentiel de la technologie, même face au préjudice. Les recherches futures pourraient examiner qualitativement l'équilibre ambivalent des individus des Noirs et l'optimisme autour de l'IA.
Implications politiques et technologiques
Si les personnes marginalisées ne font pas confiance à l'IA – et pour une bonne raison – que peuvent faire les décideurs et les développeurs de technologie?
Tout d'abord, offrez une option pour un consentement significatif. Cela donnerait à chacun la possibilité de décider si et comment l'IA est utilisée dans sa vie. Un consentement significatif obligerait les employeurs, les prestataires de soins de santé et d'autres institutions à divulguer quand et comment ils utilisent l'IA et offrent aux gens des opportunités réelles de se retirer sans pénalité.
Ensuite, fournissez la transparence des données et les protections de confidentialité. Ces protections aideraient les gens à comprendre d'où proviennent les données qui informent les systèmes d'IA, ce qui se passera avec leurs données après que l'IA les a collectés et comment leurs données seront protégées. La confidentialité des données est particulièrement critique pour les personnes marginalisées qui ont déjà connu une surveillance algorithmique et une mauvaise utilisation des données.
De plus, lors de la construction de systèmes d'IA, les développeurs peuvent prendre des mesures supplémentaires pour tester et évaluer les impacts sur les groupes marginalisés. Cela peut impliquer des approches participatives impliquant des communautés affectées dans la conception du système d'IA. Si une communauté dit non à l'IA, les développeurs devraient être disposés à écouter.
Enfin, je crois qu'il est important de reconnaître les attitudes négatives de l'IA parmi les groupes marginalisés. Lorsque les personnes à haut risque de préjudice algorithmique telles que les personnes trans et les personnes handicapées sont également les plus méfiantes de l'IA, c'est une indication pour les concepteurs d'IA, les développeurs et les décideurs politiques à réévaluer leurs efforts. Je crois qu'un avenir construit sur l'IA devrait tenir compte des personnes que la technologie met en danger.
