Les algorithmes à préjugés raciaux et sexistes sont un problème que nous traînons depuis les années 80

Lensa génère des avatars hypersexualisés pour les femmes. Le grand défi de l’IA est de se débarrasser de nos préjugés

C’est l’application virale du moment. Lensa permet de générer des ‘Magic Avatars’ avec l’IA Depuis le téléphone. Ce n’est pas seulement un éditeur, mais nous pouvons télécharger plusieurs photos d’une personne et générer des dizaines de portraits similaires. En tant que « multivers » de notre personne, telle qu’elle a été décrite. C’est génial pour jouer avec le potentiel de l’IA, mais c’est aussi un exemple parfait et dérangeant de la façon dont ces outils peuvent être biaisés.


Je veux un avatar, pas une femme presque nue. Lorsque Lensa est testée par des hommes, les avatars générés sont des guerriers, des politiciens ou des astronautes. Il y a de tout. Cependant, lorsque l’application est testée par une femme, il y a une nette tendance à créer des avatars de modèles nus, quel que soit leur style. Le nombre est suffisamment élevé pour que de nombreux utilisateurs se soient plaints, car ils ne voulaient clairement qu’un avatar animé et non une version quasi pornographique d’eux-mêmes.

Melissa Heikkilä, journaliste IA à Technology Review, est venu faire des chiffres sur ce phénomène. Sur 100 avatars générés avec son visage, 16 étaient nus et sur 14 autres, elle avait des vêtements très moulants et suggestifs.

L’experte explique qu’elle a des traits asiatiques et que cela semble avoir contribué encore plus au biais. Mais on parle du fait que 30% des images générées sont clairement hypersexualisées. Un chiffre totalement démesuré, qui heureusement ne se répète pas chez toutes les femmes qui utilisent l’application.

« Dérangeant et effrayant. » C’est le sentiment qui reste après avoir découvert que la plupart des avatars générés par Lensa ont déformé votre personnage et l’ont transformé en une sorte de jouet sexuel. Ces deux adjectifs ont été choisis par l’actrice Megan Fox lorsqu’elle a essayé l’application. Dans une poster sur instagraml’actrice a mis en ligne plusieurs des avatars générés par Lensa et souligne qu’ils sont tous sexuels et qu’ils y apparaissent presque nus.

L’importance d’un ensemble de données correct. Nous savons que l’IA a des biais, mais comme ces outils peuvent être utilisés plus largement, cela est plus apparent. Lensa est basé sur Stable Diffusion, un modèle ouvert qui à son tour a été formé avec le jeu de données LAION-5Bqui compte 5,850 millions d’images.

Des filtres pour réduire les biais existent, mais Lensa ne les applique pas. Au départ, ce même modèle était encore plus biaisé et pratiquement toutes les images de femmes asiatiques étaient pornographiques. Avec l’amélioration des bases de données, il a été réduit. Heureusement, avec Stable Diffusion, nous savons que c’est le cas, mais dans d’autres modèles fermés tels que DALL-E d’OpenAI, cela ne peut pas être vérifié.

La nouvelle version de Stable Diffusion vous permet de filtrer les images répétitives, ce qui réduit le fait que chaque fois que le même concept est introduit, par exemple les femmes asiatiques, le même type d’image paillarde est renvoyé. Malheureusement, Lensa ne l’applique pas encore.

Les Lensa sont des avatars animés, mais nous avons aussi du photoréalisme. Ce problème ne vient pas seulement d’une application d’avatar. L’IA progresse à pas de géant. Nous avons l’exemple de Ouverture Lexica, capable de générer des photographies réalistes avec des célébrités ; celui de DeepNude, et on a le souvenir des ‘deepfakes’, déjà faciles à créer en quelques secondes grâce à l’IA. C’est un problème qui remonte à loin et des années plus tard, il n’a toujours pas de solution.

L'utilisation de l'intelligence artificielle pour créer du porno se développe.  Et il y a ceux qui voient un business (controversé)

« Une cause perdue ». Cela a été défini par l’une des actrices les plus touchées par l’hypersexualisation, Scarlett Johansson. En 2019, il a réfléchi à la tentative d’arrêter les «  faux profonds  » du porno, arguant qu’en fin de compte, il y a tout un « gouffre en ligne pratiquement sans loi ».

Lensa n’en arrive pas là, mais c’est un exemple parfait qui est maintenant devenu viral et illustre la nécessité de mettre en évidence ce problème. Il y aura toujours des bastions sur Internet et avec l’IA qui refléteront nos préjugés, mais nous devons continuer à avancer dans la bonne direction. La convivialité de l’IA pour tous les utilisateurs en dépend.

Image | Lensa (Megan Fox)