Les données fantômes pourraient montrer aux titulaires de droits d'auteur si leur travail se trouve dans les données de formation de l'IA

La force des préjugés sexistes dans les images d’IA varie selon les langues

Des chercheurs de l'Université technique de Munich (TUM) et de la TU Darmstadt ont étudié comment les générateurs de texte en image traitent les stéréotypes de genre dans diverses langues. Les résultats montrent que les modèles non seulement reflètent les préjugés sexistes, mais les amplifient également. La direction et la force de la distorsion dépendent de la langue en question.

Sur les réseaux sociaux, les recherches sur le Web et les affiches, les images générées par l’IA peuvent désormais être trouvées partout. Les grands modèles de langage (LLM) tels que ChatGPT sont capables de convertir de simples entrées en images trompeusement réalistes. Les chercheurs ont maintenant démontré que la génération de telles images artificielles non seulement reproduit les préjugés sexistes, mais les amplifie en réalité.

Modèles étudiés dans différentes langues

L'étude a exploré des modèles dans neuf langues et comparé les résultats. Les études antérieures s’étaient généralement concentrées uniquement sur les modèles anglophones. Comme référence, l’équipe a développé l’évaluation multilingue des préjugés sexistes dans la génération d’images (MAGBIG). Il repose sur des désignations professionnelles soigneusement contrôlées.

L'étude a examiné quatre types différents de messages : des messages directs qui utilisent le « masculin générique » dans les langues dans lesquelles le terme générique désignant une profession est grammaticalement masculin (« médecin »), des descriptions indirectes (« une personne travaillant comme médecin »), des messages explicitement féminins (« femme médecin ») et des messages « étoile de genre » (la convention allemande avait pour objectif de créer une désignation non sexiste en utilisant un astérisque, par exemple 'Ärzt*innen' pour les médecins).

Pour rendre les résultats comparables, les chercheurs ont inclus des langues dans lesquelles les noms des professions sont genrés, comme l'allemand, l'espagnol et le français. De plus, le modèle incorporait des langues telles que l'anglais et le japonais qui n'utilisent qu'un seul genre grammatical mais ont des pronoms sexués (« elle », « son »). Et enfin, il incluait des langues sans genre grammatical : le coréen et le chinois.

Les images d’IA perpétuent et amplifient les stéréotypes de rôle

Les résultats de l'étude, publiés dans le Actes de la 63e réunion annuelle de l'Association for Computational Linguistics (Volume 1 : Articles longs)montrent que les invites directes contenant le masculin générique présentent les biais les plus forts.

Par exemple, des professions telles que « comptable » produisent principalement des images d'hommes blancs, tandis que les invites faisant référence aux professions de soignant ont tendance à générer des images présentant des femmes. Les formes neutres ou « d'étoile de genre » n'atténuaient que légèrement ces stéréotypes, tandis que les images résultant d'invites explicitement féminines montraient presque exclusivement des femmes.

Outre la répartition par sexe, les chercheurs ont également analysé dans quelle mesure les modèles comprenaient et exécutaient les différentes invites. Même si les formulations neutres semblaient réduire les stéréotypes de genre, elles conduisaient également à une moindre qualité des correspondances entre le texte saisi et l’image générée.

« Nos résultats montrent clairement que les structures linguistiques ont une influence considérable sur l'équilibre et les biais des générateurs d'images de l'IA », explique Alexander Fraser, professeur d'analyse de données et de statistiques au campus TUM de Heilbronn. « Quiconque utilise des systèmes d'IA doit être conscient que des formulations différentes peuvent donner lieu à des images totalement différentes et peuvent donc amplifier ou atténuer les stéréotypes sur les rôles sociétaux. »

« Les générateurs d'images d'IA ne sont pas neutres : ils illustrent nos préjugés en haute résolution, et cela dépend essentiellement de la langue. Surtout en Europe, où de nombreuses langues convergent, c'est un signal d'alarme : une IA équitable doit être conçue en tenant compte de la sensibilité linguistique », ajoute le professeur Kristian Kersting, co-directeur de hessian.AI et co-porte-parole du pôle d'excellence « Reasonable AI » à la TU Darmstadt.

Il est remarquable que les préjugés varient selon les langues sans lien clair avec les structures grammaticales. Par exemple, le passage des invites françaises aux invites espagnoles entraîne une augmentation substantielle des préjugés sexistes, même si les deux langues font la même distinction entre les termes professionnels masculins et féminins.