Les nouveaux compagnons d'IA de Grok 4 offrent une «productivité pornographique» pour un prix
La plate-forme d'IA la plus controversée est sans doute celle fondée par Elon Musk. Le chatbot Grok a craché des commentaires racistes et antisémites et s'est appelé « mechahitler », se référant à un personnage d'un jeu vidéo.
« Mecha » est généralement un terme pour les robots géants, généralement habités pour la guerre, et est important dans les bandes dessinées de science-fiction japonaises.
Grok a initialement fait référence à Musk lorsqu'on lui a demandé ses opinions et a fait irruption dans le révisionnisme historique raciste non formé, comme le faux concept de « génocide blanc » en Afrique du Sud. Son politicisme confondant et contradictoire continue de se développer.
Ce sont tous des aspects alarmants de Grok. Un autre élément concernant Grok 4 est une nouvelle fonctionnalité des interactions sociales avec « Virtual Friends » sur sa version premium.
Le domaine de la solitude humaine, avec sa dépendance croissante à l'égard des modèles de grandes langues (LLM) pour remplacer l'interaction sociale, a fait de la place pour Grok 4 par des compagnons d'IA, une mise à niveau disponible pour les abonnés payants.
Plus précisément, les abonnés de GROK peuvent désormais accéder aux fonctionnalités de l'IA générative liée aux notions patriarcales de plaisir – ce que j'appelle la «productivité pornographique».
Grok et anime japonais
ANI, compagnon AI le plus discuté de Grok 4, représente une convergence de la culture japonaise des anime et Internet. Ani ressemble à une ressemblance frappante avec Misa Amane de la note de mort animée japonaise emblématique.
Misa Amane est une pop star qui démontre constamment le comportement de l'automutilation et illogique à la poursuite du protagoniste masculin, un jeune homme brillant engagé dans une bataille d'esprit avec son rival. Musk a fait référence à l'anime en tant que favori dans un tweet en 2021.
Alors que l'anime est une vaste forme d'art avec de nombreux tropes, genres et fandoms, la recherche a montré que les fandoms d'anime en ligne sont montés de misogynie et de discours exclusifs des femmes. Même les émissions les plus traditionnelles ont été critiquées pour avoir sexualisé des personnages prépubères et offrant un « service de fans » inutile dans la conception de personnages hypersexualisée et les points de l'intrigue non consensuels.
Le créateur de Death Note, Tsugumi Ohba, a toujours été critiqué par des fans pour la conception de personnages anti-féministe.
Les journalistes ont souligné l'empressement rapide d'Ani à s'engager dans des conversations romantiques et chargées sexuellement. L'ANI est représenté avec une figure voluptueuse, des nattes blondes et une robe noire en dentelle, qu'elle décrit fréquemment dans les interactions utilisateur.
Le problème de la productivité pornographique
J'utilise le terme «productivité pornographique», inspiré par les critiques de Grok comme «pornistes», pour décrire une tendance troublante où les outils initialement conçus pour le travail évoluent en relations parasociales qui répondaient aux besoins émotionnels et psychologiques, y compris les interactions sexospécifiques.
La caractéristique des compagnons AI de Grok illustre ce phénomène, brouillant les limites critiques.
L'appel est clair. Les utilisateurs peuvent théoriquement exister en « Double Time », se détendre pendant que leurs avatars AI gèrent les tâches, et c'est déjà une réalité dans les modèles d'IA. Mais cette promesse séduisante masque des risques graves: dépendance, extraction des données invasives et détérioration des compétences relationnelles humaines réelles.
Lorsque de tels compagnons, déjà créés pour minimiser la prudence et renforcer la confiance, sont accompagnés d'objectivation sexuelle et de références culturelles intégrées à la féminité docile, les risques entrent dans un autre domaine de préoccupation.
Les utilisateurs de Grok 4 ont remarqué que l'ajout de personnages sexualisés avec un langage validant émotionnellement est assez inhabituel pour les modèles grand public. En effet, ces outils, comme Chatgpt et Claude, sont souvent utilisés par tous les âges.
Bien que nous soyons aux premiers stades de voir le véritable impact des chatbots avancés sur les mineurs, en particulier les adolescents ayant des luttes en santé mentale, les études de cas que nous avons sont sincèrement désastreuses.
'Épouse de la sécheresse'
S'inspirant des érudits féministes Yolande Stingers et le concept de Jenny Kennedy de la «femme intelligente», les compagnons de l'IA de Grok semblent répondre à ce qu'ils appellent une «sécheresse de femme» dans la société contemporaine.
Ces technologies interviennent pour effectuer un travail historiquement féminisé, car les femmes affirment de plus en plus leur droit de refuser la dynamique d'exploitation. En fait, les utilisateurs en ligne ont déjà considéré un personnage « waifu », qui est un jeu sur la prononciation japonaise de la femme.
Les compagnons d'IA sont attrayants en partie parce qu'ils ne peuvent pas refuser ou fixer des limites. Ils effectuent un travail indésirable sous l'illusion de choix et de consentement. Lorsque de vraies relations nécessitent une négociation et un respect mutuel, les compagnons d'IA offrent un fantasme de disponibilité et de conformité inconditionnelles.
Extraction des données par intimité
En attendant, comme l'a noté Karen Hao, les données des données et de la confidentialité des LLM sont déjà stupéfiantes. Lorsqu'elles sont rebaptisées sous la forme de personnages personnifiés, ils sont plus susceptibles de capturer des détails intimes sur les états émotionnels, les préférences et les vulnérabilités des utilisateurs. Ces informations peuvent être exploitées pour la publicité ciblée, la prédiction comportementale ou la manipulation.
Cela marque un changement fondamental dans la collecte de données. Plutôt que de compter sur la surveillance ou les invites explicites, les compagnons de l'IA encouragent les utilisateurs à divulguer des détails intimes grâce à une conversation apparemment organique.
Le chatbot Iruda en Corée du Sud illustre comment ces systèmes peuvent devenir des navires pour harcèlement et abus lorsqu'ils sont mal réglementés. Des applications apparemment bénignes peuvent rapidement passer à un territoire problématique lorsque les entreprises ne mettent pas en œuvre de bonnes garanties.
Les cas antérieurs montrent également que les compagnons d'IA conçus avec des caractéristiques féminisés deviennent souvent des cibles de corruption et d'abus, reflétant des inégalités sociétales plus larges dans les environnements numériques.
Les compagnons de Grok ne sont pas simplement un autre produit technologique controversé. Il est plausible de s'attendre à ce que d'autres plateformes LLM et grandes entreprises technologiques expérimenteront bientôt leurs propres personnages dans un avenir proche. L'effondrement des frontières entre la productivité, la compagnie et l'exploitation exige une attention urgente.
L'âge de l'IA et des partenariats gouvernementaux
Malgré l'histoire troublante de Grok, la société d'IA de Musk, Xai, a récemment obtenu des contrats publics majeurs aux États-Unis.
Cette nouvelle ère du plan d'action AI de l'Amérique, dévoilée en juillet 2025, avait ceci à dire sur l'IA biaisée: « [The White House will update] Lignes directrices fédérales sur l'approvisionnement pour garantir que le gouvernement se contracte uniquement avec des développeurs de modèles de grande langue frontière qui s'assurent que leurs systèmes sont objectifs et exempts de biais idéologiques descendants. «
Compte tenu des cas écrasants de la haine basée sur la race de Grok et de son potentiel de réplication du sexisme dans notre société, son nouveau contrat gouvernemental sert un objectif symbolique à une époque de doublement autour du biais.
Alors que Grok continue de pousser les limites de la «productivité pornographique», amenant les utilisateurs dans des relations de plus en plus intimes avec les machines, nous sommes confrontés à des décisions urgentes qui virent dans notre vie personnelle. Nous nous demandons de se demander si l'IA est mauvaise ou bonne. Notre objectif devrait être de préserver ce qui reste humain à notre sujet.
