Parfois, les IA érotiques sont des IA. Et parfois, c'est un Kenyan qui facture deux dollars de l'heure.
Passer une journée de travail à taguer du porno n’est pas amusant du tout. Les modérateurs de contenu dénoncent depuis des années des conditions de travail épouvantables et la même chose se produit désormais avec l’étiquetage des données pour entraîner l’IA. Sur 404media, ils racontent l'histoire de Michael Geoffrey, un Kenyan qui a passé des mois à travailler pour deux sociétés d'IA, jusqu'à ce que sa santé mentale soit complètement détruite.
Les emplois. Michael est resté devant son ordinateur pendant huit heures à regarder du porno, décrivant de manière très détaillée ce qui se passait dans les images. Il ne s’agissait pas d’une affiliation, mais plutôt d’un travail pour une société d’étiquetage de données qui utilisait ensuite toutes ces descriptions pour former des modèles d’IA.
À la fin de la journée, son deuxième emploi l’attendait dans une entreprise de chatbots à IA sexuelle. Dans ce travail, Michael devait entretenir des conversations sexuelles avec les utilisateurs, en adoptant à chaque fois le rôle nécessaire ; J'ai dû me faire passer pour un homme, une femme, hétéro, homosexuel… et bien sûr m'adapter au contexte de chaque conversation.
Derrière l'IA. Bien qu’ils portent le nom de famille AI, ces sexbots ont en réalité beaucoup de travail humain derrière eux. Autrement dit, lorsque quelqu’un parle à sa petite amie ou à son petit ami IA, il peut s’agir d’une personne réelle. Michael a écrit son témoignage et a déclaré qu'il avait dû simuler des liens intimes avec des utilisateurs anonymes. Leurs interactions ont ensuite été utilisées pour entraîner l’IA.
Dans le cas de l’étiquetage des données, les travailleurs sont exposés à tous types de contenus, certains extrêmement violents. Par exemple, pour que l’IA soit capable de détecter les contenus d’abus et de violences sexuelles, ces travailleurs doivent voir des milliers d’images d’abus et de violence extrême, et tout cela pour des salaires ridicules. Dans un rapport du Time, ils ont indiqué que l'une de ces entreprises payait entre 1,3 et 2 dollars nets de l'heure.
Les conséquences. Après plusieurs mois de travail, Michael souffrait d'insomnie, de stress et commençait à avoir des difficultés à avoir des relations sexuelles. Il raconte à 404media qu ' »il est arrivé un moment où mon corps ne répondait plus. Quand je voyais quelqu'un nu, je ne ressentais même plus rien ». Des heures interminables, une exposition à des contenus très désagréables et des salaires très bas. Certains prétendent que cela s’apparente à une forme d’esclavage moderne.
Les entreprises derrière. L'une d'elles est Sama, une entreprise basée à San Francisco qui se définit comme « l'exemple parfait d'IA éthique ». C'est l'entreprise qui payait 2 dollars de l'heure. Une autre entreprise qui a également été au centre de la controverse est Remotasks, une filiale de Scale AI, l'une des plus importantes sociétés d'étiquetage. Elle a été fondée par Alexandr Wang, actuel responsable de l'IA chez Meta. On dit que Remotasks paie en retard et souvent pas le montant initialement promis. Ces sociétés et d’autres similaires sont externalisées par OpenAI, Google, Meta et bien d’autres pour former leurs modèles d’IA.
Les travailleurs s'organisent. Actuellement, Michael est le secrétaire de la Data Labelers Association of Kenya, une organisation qui veut donner la parole et rendre visible le travail de ces travailleurs sous-payés et invisibles. D’autres organisations ont également été créées, comme les African Content Moderators et Tech Workers, qui exigent de meilleures conditions de travail et de meilleures ressources pour prendre soin de la santé mentale des travailleurs.
À Simseo | Les gens accusent ChatGPT d'avoir provoqué des délires et des suicides : que se passe-t-il réellement avec l'IA et la santé mentale
Images | Association des étiqueteurs de données
