xAI limite l'utilisation de Grok aux utilisateurs payant pour des images sexualisées

xAI limite l'utilisation de Grok aux utilisateurs payant pour des images sexualisées

xAI, la société d'intelligence artificielle d'Elon Musk, a décidé de limiter l'accès à son controversé générateur d'images Grok aux seuls abonnés payants. Cette décision fait suite à une vague de protestations contre l'utilisation du système pour créer et diffuser des deepfakes sexualisés de femmes et d'enfants.

La décision après des pressions politiques

L'annonce a été faite quelques jours seulement après la découverte que le chatbot avait été utilisé pour générer des images explicites de personnes sans leur consentement. Ces révélations ont incité les législateurs de l’Union européenne, de la France et du Royaume-Uni à menacer d’amendes et d’interdictions si la plateforme n’agissait pas.

L'annonce officielle concernant X

« La génération et l'édition d'images sont actuellement limitées aux abonnés payants », a écrit Grok sur X. xAI n'a pas immédiatement répondu à une demande de commentaire supplémentaire. Le modèle a été délibérément conçu avec moins de barrières de sécurité que ses concurrents, un choix que Musk a défendu en qualifiant Grok de « orienté au maximum vers la recherche de la vérité ».

Un design avec peu de filtres

Le chatbot de xAI comprend également une fonctionnalité qui vous permet de créer des images clignotantes. Cette approche a suscité de vives critiques, notamment après que le Premier ministre britannique Keir Starmer a promis d'agir contre X, appelant la plateforme à « se ressaisir » et à arrêter la production d'images sexualisées de mineurs.

Images sexualisées de Grok

L'attention des autorités européennes

Entre-temps, la Commission européenne a ordonné à X de conserver tous les documents internes relatifs à Grok jusqu'à la fin de l'année. En France, les ministres ont signalé les images sexuelles générées par le chatbot aux procureurs et aux régulateurs des médias.

Les propos de Musk et les limites de la loi

Le 3 janvier, Musk a écrit sur X que « quiconque utilise Grok pour créer du contenu illégal subira les mêmes conséquences que ceux qui téléchargent du contenu illégal ».

Images sexualisées de GrokImages sexualisées de Grok

Cependant, l’essor de l’IA générative a alimenté une explosion d’images deepfake non consensuelles, grâce à la facilité avec laquelle la technologie permet de les créer.

Un problème mondial pour l’IA générative

Selon le Fondation de surveillance Internet, Organisation britannique à but non lucratif, les images d'abus sexuels sur enfants générées par l'IA ont doublé l'année dernière, devenant de plus en plus extrêmes. Bien que xAI prétende avoir supprimé le contenu illégal, l’épisode ravive les craintes quant à la facilité avec laquelle les systèmes de sécurité des modèles d’IA peuvent être contournés.

Règles fragmentées et nouvelles lois

Le secteur technologique et les régulateurs ont du mal à suivre l’impact social de l’IA générative. En 2023, des chercheurs de l’Université de Stanford ont découvert qu’une base de données largement utilisée pour former des générateurs d’images d’IA contenait du matériel pédopornographique. Les lois restent fragmentaires : ce n’est qu’en mai 2025 que les États-Unis ont adopté la Loi sur l'éliminationqui aborde le problème de «porno de vengeance» et les deepfakes générés par l’IA.