Alexa est-elle sexiste ? Oui, dit l’étude
Professeur à l’Université de Waterloo et titulaire de la Chaire de recherche du Canada sur la technologie et le changement social, le Dr Lai-Tze Fan a analysé des centaines de compétences vocales de l’assistante virtuelle d’Amazon, Alexa. L’objectif du Dr Fan était de mieux comprendre comment la technologie codée reflète et renforce les attentes socioculturelles et professionnelles traditionnellement féminisées.
« Je voulais démontrer comment Alexa est conçue pour être une présentation féminine et, en conséquence de cette conception, les attentes en matière de travail et de comportement sexospécifiques ont été intégrées dans le code et les expériences utilisateur de diverses compétences Alexa », a déclaré Fan.
« Bien que les utilisateurs aient la possibilité de changer les voix d’Alexa, Siri et d’autres assistants IA, les recherches montrent que les voix masculines n’ont pas été aussi populaires. De plus, les développements en matière de voix non sexistes n’ont pas été intégrés dans les voix les plus populaires. interfaces. »
L’article intitulé « Reverse Engineering the Gendered Design of Amazon’s Alexa: Methods in Testing Closed-Source Code in Gray and Black Box Systems » est publié dans Humanités numériques trimestrielles dans un numéro spécial sur les études critiques de code.
Les assistants IA tels qu’Alexa effectuent des tâches via la commande textuelle ou vocale de l’utilisateur, ce qui invite le logiciel à rechercher des mots-clés correspondant à ses scripts pour exécuter une tâche spécifique. À la mi-2022, Alexa possédait plus de 100 000 compétences qui peuvent aider à cuisiner, nettoyer, vérifier la météo, écouter de la musique, activer les appareils électroménagers et ajouter des éléments au calendrier d’un utilisateur. « Ces tâches et d’autres ressemblent souvent au type de travail de soutien qui peut être associé aux assistants personnels et aux travailleurs domestiques », a déclaré Fan.
Bien que le code de la technologie d’assistant virtuel populaire soit de source fermée, Fan a déclaré que certaines caractéristiques de l’architecture du code peuvent être identifiées grâce à des méthodes similaires à l’ingénierie inverse. Elle a utilisé une approche novatrice pour étudier le code source fermé du produit dans le cadre des lois sur l’utilisation équitable.
Ces méthodes incluent l’utilisation de la console officielle de développement de logiciels d’Amazon, d’Alexa Skills Kit, ainsi que de GitHub, pour accéder à des échantillons ouverts et à des extraits de code développés par Amazon. Fan a combiné ces informations limitées sur le code en examinant le code de compétences Alexa non officielles développées par des utilisateurs tiers.
Fan a pu examiner des échantillons de code qui démontrent les réponses prédéfinies et actives d’Alexa au flirt et aux abus verbaux des utilisateurs, ainsi que la façon dont les utilisateurs tentent de tromper Alexa pour qu’elle accepte un comportement ouvertement misogyne.
« Dans tout ce travail, l’objectif est d’analyser la culture Big Tech et sa propre présentation de données objectives, d’informations et de logique – des piliers qui commencent à s’effondrer lorsque nous examinons les fondements exclusifs, discriminatoires et systémiquement inégaux sur lesquels ils sont construits. « , a déclaré Fan.
Comprendre la conception de l’IA destinée aux soins, à l’assistance et au travail subalterne est particulièrement important pour déterminer comment les choix de conception peuvent affecter et influencer les comportements des utilisateurs dans des contextes sociaux virtuels et réels.
Les recherches de Fan s’appuient sur des connaissances interdisciplinaires liées à la conception genrée, qui comprennent la science et la technologie, les études de données critiques, les études critiques sur la race, l’informatique, la technoscience féministe et d’autres domaines adjacents.