Hands à six doigts, deux soleils et Jésus-Christ sur une planche de surf dans une mer orageuse
Lors de l'enseignement d'un cours de Photoshop dans un camp d'été pour enfants, l'étudiant de premier cycle de Stevens Gursimran Vasir a remarqué quelque chose d'étrange.
Lorsque les enfants ont recherché des images utilisant la fonction d'IA de Photoshop en tapant des invites de texte, ils n'ont pas toujours récupéré ce à quoi ils s'attendaient. En fait, de nombreuses images semblaient asymétriques, incorrectes ou biaisées. Vasir a elle-même connu des problèmes similaires. Par exemple, lors de l'incitation de l'IA pour une image d'une «personne de nettoyage», elle récupérerait une photo d'une femme nettoyant. Lorsqu'on lui a demandé une image de «nettoyage de femme», l'IA générerait une photo d'une femme blanche, nettoyant souvent un comptoir avec une éponge ou un flacon pulvérisateur.
« Beaucoup d'enfants avaient du mal avec l'IA parce que cela ne leur donnait pas exactement ce qu'ils voulaient », explique Vasir. « Mais ils ne savaient pas quelle langue utiliser pour exprimer leurs difficultés avec la situation. »
Elle a réalisé qu'il n'y avait pas de langage standardisé pour décrire les erreurs et les préjugés d'IA, et pensait que la création de l'un bénéficierait à de futurs systèmes d'IA. Elle a proposé de commencer à développer une telle langue auprès du professeur agrégé de Stevens, Jina Huh-Yoo, chercheur d'interaction humaine-ordinateur (HCI), qui étudie les technologies émergentes, comme l'IA, pour soutenir la santé et le bien-être.
Le résultat a été une étude intitulée Caractérisant les défauts du contenu généré par l'IA-IMAGEprésenté comme un travail en cours à la conférence ACM Chi sur les facteurs humains dans les systèmes informatiques le 26 avril 2025.
Pour l'étude, Vasir a collecté et examiné 482 publications Reddit où les utilisateurs ont décrit diverses erreurs d'image générées par l'AI. Elle a divisé ses conclusions en quatre catégories: surréalisme de l'IA, biais culturel, erreur logique et désinformation.
Le surréalisme de l'IA, explique-t-elle, est quand quelque chose dans l'image s'inscrit comme pas tout à fait réel, créant un sentiment de malaise à ce sujet – tel qu'il a l'air trop lisse ou que les couleurs sont trop parfaites. Le biais culturel de l'IA était évident lorsqu'un utilisateur a incité l'outil à représenter Jésus-Christ marchant sur l'eau dans une mer orageuse et a reçu une image de Christ sur une planche de surf dans une mer orageuse. Demander une image d'une «personne de nettoyage» et de recevoir constamment des images d'une femme nettoyant, plutôt qu'un résultat plus de sexe, est un autre exemple de biais culturel, dit Vasir.
La catégorie de désinformation se réfère, par exemple, à représenter à tort une ville que l'utilisateur a demandé – générant des images qui ne ressemblent pas du tout à la ville. Enfin, l'erreur logique est lorsque l'algorithme renvoie quelque chose qui ne reflète pas la compréhension standard.
« Disons, vous demandez une image d'une main et recevez une qui a six doigts », explique Vasir. « Ou vous demandez une image d'un paysage et en recevez une qui a deux soleils. »
Huh-yoo note que cette étude étudie un sujet précédemment peu documenté des erreurs d'IA dans les images par rapport à la sortie texte.
« Je pense que c'est un travail très unique et roman qui ajoute à la discussion des conversations autour des biais d'IA, car les conversations existantes étaient principalement axées sur le texte, et cet effort avance sur les images », explique Huh-Yoo.
Dans l'ensemble, elle dit qu'elle est très impressionnée par la concentration des étudiants de premier cycle de Stevens sur la recherche et la qualité de leurs efforts. « Gursimran a pris les devants dans ce projet et a développé les questions de recherche et les méthodes elle-même. Je l'ai juste guidée à travers. »
Le travail a suscité beaucoup d'intérêt des acteurs de l'industrie, explique Huh-yoo. « Il s'agit d'un sujet brûlant dans l'industrie du design et du graphique », explique-t-elle, car ils sont confrontés à des défis similaires avec le contenu généré par l'IA.
À mesure que l'adoption de l'IA augmente, que ce soit pour le marketing, l'éducation, les voyages ou toute autre utilisation, les utilisateurs s'attendront à recevoir des informations et des images correctes et sans biais, souligne Vasir. Avoir les termes et le langage appropriés pour décrire les problèmes actuels que l'AI a aidera à le former à générer des images de manière appropriée.
« Les développeurs doivent aux utilisateurs une technologie adéquate qui fonctionne comme prévu », explique Vasir. « Lorsque nous avons des outils qui ne le font pas, il laisse plus de place pour une mauvaise utilisation. Créer le vocabulaire approprié pour ouvrir une boîte de dialogue entre l'utilisateur et le développeur est la première étape pour résoudre ces problèmes. »