Vidéos Ai 'Bikini Interview'
par Anuj Chopra avec Sumit Dubey à New Delhi et Michelle Fitzpatrick à Francfurt
Les vidéos sont étonnamment réalistes, mettant en vedette des femmes vêtues de bikini menant des interviews de rue et provoquant des commentaires obscènes, mais ils sont entièrement faux, générés par des outils d'IA de plus en plus utilisés pour inonder les médias sociaux avec du contenu sexiste.
Un tel contenu produit par Sals – créé par des outils d'intelligence artificielle bon marché qui transforment les invites de texte simples en visuels hyper réalistes – se noie souvent des publications authentiques et brouillant la frontière entre la fiction et la réalité.
La tendance a engendré une industrie cottage d'influenceurs d'IA produisant de grands volumes de clips sexualisés avec un minimum d'effort, souvent motivé par des programmes d'incitation à la plate-forme qui récompensent financièrement le contenu viral.
Des hordes de clips AI, chargées d'humour dans la salle de vestiaire, prétendent montrer des intervieweurs féminines légèrement vêtues dans les rues de l'Inde ou du Royaume-Uni – des préoccupations qui se font du préjudice pour un tel contenu synthétique peuvent poser aux femmes.
Les vérificateurs des faits de l'AFP ont retracé des centaines de ces vidéos sur Instagram, dont beaucoup en hindi, qui montrent prétendument des interviewés masculines livrant nonchalamment des punchlines misogynes et des remarques sexualisées – même en train de saisir les femmes – tandis que des foules d'hommes gawk ou rient en arrière-plan.
De nombreuses vidéos ont accumulé des dizaines de millions de vues – et certains monétisés en outre cette traction en faisant la promotion d'une application de chat pour adultes pour « se faire de nouvelles amis féminines ».
Les clips fabriqués étaient si réalistes que certains utilisateurs dans les commentaires se demandaient si les femmes en vedette étaient réelles.
Un échantillon de ces vidéos analysé par la société américaine de cybersécurité GetReal Security a montré qu'ils ont été créés à l'aide du générateur VEO 3 d'IA de Google, connu pour ses visuels hyper-réalistes.
« Dommage sexiste ''
« La misogynie qui restait généralement cachée dans les discussions et les groupes de vestiaires est maintenant déguisé en visuels de l'IA », a déclaré à l'AFP Nirali Bhatia, un cyber-psychologue basé en Inde.
« Cela fait partie des préjudices sexospécifiques médiés par l'IA », a-t-elle déclaré, ajoutant que la tendance était de « alimenter le sexisme ».
La tendance offre une fenêtre sur un paysage Internet désormais de plus en plus submergé avec des mèmes, des vidéos et des images générés par l'IA qui sont en concurrence pour l'attention avec le contenu authentique et de plus en plus éclipsé.
« L'AI Sols et tout type de contenu généré par l'AI non marqué éloigne lentement le petit fiducie qui reste dans le contenu visuel », a déclaré Emmanuelle Saliba d'Emmanuelle d'Emmanuelle à AFP.
Le contenu misogyne le plus viral repose souvent sur la valeur du choc, y compris les clips Instagram et Tiktok qui, selon le magazine Wired, ont été générés à l'aide de Veo 3 et dépeignent les femmes noires comme des primates à grands pieds.
Des vidéos sur un compte Tiktok populaire énumèrent de façon moqueuse ce que les soi-disant « filles de Guilles Gone Wild » feraient pour de l'argent.
Les femmes sont également du fourrage pour les appâts cliquables pénibles en AI, les vérificateurs de faits de l'AFP suivant les vidéos virales d'un faux entraîneur marin nommé « Jessica Radcliffe » attaqué mortellement par une orque lors d'un spectacle en direct dans un parc aquatique.
Les images fabriquées se sont rapidement répandues sur des plates-formes telles que Tiktok, Facebook et X, suscitant l'indignation mondiale des utilisateurs qui pensaient que la femme était réelle.
'Irréel'
L'année dernière, Alexios Mantzarlis, directrice de l'initiative de sécurité, de confiance et de sécurité chez Cornell Tech, a trouvé 900 comptes Instagram de « modèles » générés par AI-AI – prédominellement féminins et généralement légèrement vêtus.
Ces pièges à soif ont cumulé 13 millions de followers et publié plus de 200 000 images, monétisant généralement leur portée en redirigeant leur public vers des plateformes de partage de contenu commercial.
Avec la fabrication de la Fakery en ligne, « les chiffres sont désormais sans aucun doute beaucoup plus importants », a déclaré Mantzarlis à l'AFP.
« Attendez-vous à plus de contenu absurde en tirant parti des normes corporelles qui ne sont pas seulement irréalistes mais littéralement irréels », a-t-il ajouté.
Le SLOL incité financière devient de plus en plus difficile pour la police en tant que créateurs de contenu – y compris les étudiants et les parents au foyer du monde entier – se rendent à la production vidéo de l'IA en tant que travail sur les concerts.
De nombreux créateurs sur YouTube et Tiktok offrent des cours payants sur la façon de monétiser les matériaux viraux générés par l'IA sur les plates-formes, dont beaucoup ont réduit leur dépendance à l'égard des vérifications des faits humains et réduit la modération du contenu.
Certaines plates-formes ont cherché à réprimer les comptes faisant la promotion de Sols, avec YouTube récemment disant que les créateurs de contenu « inauthentique » et « produit en masse » seraient inadmissibles à la monétisation.
« L'IA n'invente pas la misogynie – elle reflète et amplifie ce qui est déjà là », a déclaré Divyendra Jadoun, consultante à l'AI.
« Si le public récompense ce type de contenu avec des millions de likes, les algorithmes et les créateurs de l'IA continueront de le produire. Le plus grand combat n'est pas seulement technologique – c'est social et culturel. »
