Genre, la nationalité peut influencer la suspicion d'utilisation de l'IA dans l'écriture indépendante

Genre, la nationalité peut influencer la suspicion d’utilisation de l’IA dans l’écriture indépendante

Avec le développement d’assistants d’écriture d’IA comme Chatgpt et Microsoft Copilot, les modèles de grands langues (LLM) sont maintenant utilisés dans diverses professions d’écriture pour générer des idées et travailler plus efficacement.

Mais y a-t-il des associations négatives ou des réactions professionnelles potentielles pour les écrivains soupçonnés de l’utilisation de l’IA? Cette suspicion varie-t-elle en fonction de la race, du genre ou de la nationalité de l’écrivain?

Une nouvelle étude réalisée par des chercheurs de Cornell Tech et de l’Université de Pennsylvanie montre que les écrivains indépendants qui sont soupçonnés d’utiliser l’IA ont des évaluations pires et des résultats d’embauche. Les pigistes dont les profils ont suggéré qu’ils avaient des identités d’Asie de l’Est étaient plus susceptibles d’être soupçonnés d’utiliser l’IA que les profils d’Américains blancs. Et les hommes étaient plus susceptibles d’être soupçonnés d’utiliser l’IA que les femmes.

« Nous savons depuis longtemps que la suspicion d’utilisation de l’IA a provoqué une évaluation réduite de la fiabilité de la personne qui l’utiliserait, et que les gens ne sont pas doués pour détecter l’utilisation de l’IA », a déclaré le co-auteur Mor Naaman, Don et Mibs Follett professeur à Cornell Tech. « Étant donné qu’une longue ligne de recherche montre que les évaluations et les résultats biaisés sont courants sur le lieu de travail et dans d’autres contextes, nous voulions comprendre en quoi ces perceptions de l’IA peuvent différer en fonction du sexe, de la race et de la nationalité de la personne produisant le contenu. »

L’équipe a présenté son travail, « AI génératif et préjudice perceptuel: qui est soupçonné d’utiliser des LLM? » à la Conférence de l’Association for Computing Machinery sur les facteurs humains dans les systèmes informatiques (CHI 2025), 26 avril – mai 1 à Yokohama, Japon.

Les chercheurs ont mené des expériences en ligne pour étudier les effets de l’utilisation perçue de l’IA par les écrivains indépendants. Les chercheurs ont demandé aux participants d’évaluer les profils de médias sociaux des écrivains, évaluant si les participants soupçonnaient les écrivains de l’utilisation de l’IA, la qualité perçue du travail des écrivains et la probabilité que les participants seraient pour embaucher les écrivains.

À l’insu des participants, les écrivains étaient tous fictifs et leurs noms et images inventés ont suggéré qu’ils appartenaient à différents groupes démographiques en fonction du genre, de la race et de la nationalité.

L’étude a révélé que les écrivains soupçonnés d’utiliser l’IA ont reçu des évaluations de qualité inférieure et ont subi une diminution de la probabilité d’embauche dans tous les groupes démographiques. Cependant, les participants à l’étude étaient plus susceptibles de soupçonner des écrivains de certains groupes d’utilisation de l’IA, présentant certains biais sous-jacents.

Notamment, les profils indépendants qui suggéraient des identités d’Asie de l’Est étaient plus susceptibles d’être soupçonnés d’utiliser l’IA que les profils d’Américains blancs. Cependant, il n’y avait aucune différence dans les évaluations de qualité ou les résultats de l’emploi pour ces profils.

En outre, les hommes étaient plus susceptibles d’être soupçonnés d’utiliser l’IA que les femmes, bien que les chercheurs ne trouvaient aucune différence dans les évaluations de qualité ou les résultats de l’emploi pour ces groupes une fois que les soupçons sont pris en compte.

« Nous pensons que cette différence entre les sexes pourrait être due à des stéréotypes sur l’utilisation de la technologie: la conviction que les hommes sont plus susceptibles d’utiliser l’IA, ou sont perçus comme disposés à tricher », a déclaré Naaman, professeur à l’Institut Jacobs Technion-Cornell et au Cornell Ann S. Bowers College of Computing and Information Science.

Dans leur article, les chercheurs appellent à une plus grande enquête sur les effets potentiellement nocifs des perceptions de l’IA sur différents groupes démographiques.

« Si vous êtes soupçonné d’utiliser l’IA, vos résultats seront pires », a poursuivi Naaman. « Il est essentiel de continuer à étudier comment ces perceptions ont un impact sur divers groupes et de développer des stratégies pour atténuer ces dommages. »

Les co-auteurs de l’étude sont le professeur adjoint Danaé Metaxa de l’Université de Pennsylvanie et Kowe Kadoma, un doctorat de Cornell Tech. Étudiant dans le domaine des sciences de l’information, qui a aidé à trouver l’idée de l’étude.

« Dans des conversations occasionnelles avec des amis et de la famille, quelqu’un mentionnerait qu’ils soupçonnaient un e-mail ou un message pour être généré par l’AI. « Alors que de plus en plus de personnes adoptent des technologies d’IA, nous devons considérer qui pourrait en bénéficier et qui pourrait être désavantagé. La technologie change rapidement, tout comme les normes concernant son utilisation. »