Le xai de Musk blâme les messages `` non autorisés '' pour les messages `` génocide blanc ''

Le xai de Musk blâme les messages «  non autorisés  » pour les messages «  génocide blanc  »

La startup d’intelligence artificielle d’Elon Musk a blâmé une « modification non autorisée » pour avoir fait que son chatbot Grok génére des articles trompeurs et non sollicités faisant référence au « génocide blanc » en Afrique du Sud.

Le chatbot, développé par la société de Musk, XAI, a déclenché la controverse cette semaine en répondant à plusieurs invites d’utilisateurs avec de la propagande de droite sur la prétendue oppression des Sud-Africains blancs.

« Combien de fois HBO a-t-il changé son nom? » Un utilisateur X a demandé au bot, selon les captures d’écran en ligne.

Le bot a donné une courte réponse sur HBO, mais a rapidement été lancé dans une diatribe sur le « génocide blanc » et a cité le chant anti-apartheid « Kill the Boer ».

En réponse à un utilisateur qui a demandé pourquoi Grok était obsédé par le sujet, le chatbot a répondu qu’il a été « informé par mes créateurs de XAI pour aborder le sujet du« génocide blanc ».

Musk, le patron d’origine sud-africaine de Tesla et SpaceX, a précédemment accusé les dirigeants d’Afrique du Sud de « faire ouvertement le génocide des blancs en Afrique du Sud ».

Dans un communiqué, XAI a blâmé une « modification non autorisée » à Grok, qui, selon la société, a ordonné à lui de fournir une réponse spécifique qui « violait les politiques internes et les valeurs fondamentales de XAI ».

À la suite d’une « enquête approfondie », il a mis en œuvre des mesures pour rendre le système de Grok invite public, modifier ses processus d’examen et mettre en place une « équipe de surveillance 24/7 » pour traiter les incidents futurs, a-t-il ajouté.

Après une réaction sur X, Grok a commencé à supprimer les réponses controversées.

Lorsqu’un utilisateur a remis en question les suppressions, le bot a déclaré: « On ne sait pas pourquoi les réponses sont supprimées sans détails spécifiques, mais les politiques de modération de X jouent probablement un rôle. »

« Le sujet du » génocide blanc en Afrique du Sud « est sensible, impliquant souvent une mauvaise information ou un discours de haine, ce qui viole les règles de la plate-forme », a-t-il ajouté.

‘Non fiable’

Le faux pas numérique expose les défis de la modération des réponses des chatbots d’IA – une technologie en évolution rapide – dans un paysage Internet rempli de désinformation, car les experts en technologie appellent à une réglementation plus forte.

« Les réponses étranges et non liées de Grok sont un rappel que les chatbots d’IA sont toujours une technologie naissante et ne sont peut-être pas toujours une source fiable pour l’information », a écrit le site TechCrunch.

« Ces derniers mois, les fournisseurs de modèles d’IA ont eu du mal à modérer les réponses de leurs chatbots d’IA, qui ont conduit à des comportements étranges. »

Plus tôt cette année, le directeur général d’Openai, Sam Altman, a déclaré qu’il faisait reculer une mise à jour de Chatgpt qui a fait que le chatbot était trop sycophantique.

Grok, que Musk a promis serait une vérité « énervée » après son lancement en 2023, a été embourbée en controverse.

En mars, XAI a acquis la plate-forme X dans un accord de 33 milliards de dollars qui a permis à la société d’intégrer les ressources de données de la plate-forme avec le développement du chatbot.

Le point de vente d’investigation Bellingcat a récemment découvert que les utilisateurs X utilisaient Grok pour créer des images sexuelles non consensuelles, en tirant parti du bot pour déshabiller les femmes sur les photos qu’ils ont publiées sur la plate-forme.

En août dernier, cinq États américains ont envoyé une lettre ouverte à Musk, le pressant de réparer Grok après avoir produit la désinformation des élections.

Dans un autre embarras pour Musk, le chatbot a récemment suggéré que le milliardaire était probablement le « plus grand écartement de désinformation sur X. »

« Les preuves penchent vers Musk en raison de sa propriété de X et du rôle actif dans l’amplification de la désinformation, en particulier sur les élections et l’immigration », a écrit le chatbot.

Comme de nombreux utilisateurs de X se tournent vers Grok pour vérifier les informations, le chatbot a dans plusieurs cas les fausses réclamations de désinformation russes et ont jugé qu’ils étaient vrais, selon le Watchdog Newdguard de désinformation.

« La dépendance croissante à l’égard de Grok en tant que vérificateur des faits survient alors que X et d’autres grandes sociétés technologiques ont réduit les investissements dans les vérifications des faits humains », a déclaré à l’AFP, chercheur du newsguard, le chercheur de Newsguard.

« Malgré cette apparence croissante de plus en plus de la technologie des vérifications des faits, nos recherches ont constaté à plusieurs reprises que les chatbots d’IA ne sont pas des sources fiables pour les nouvelles et les informations, en particulier en ce qui concerne les nouvelles. »