La société d'IA d'Elon Musk affirme que Grok Chatbot se concentre sur la politique raciale de l'Afrique du Sud était `` non autorisé ''

La société d’IA d’Elon Musk affirme que Grok Chatbot se concentre sur la politique raciale de l’Afrique du Sud était «  non autorisé  »

Tout comme son créateur, le chatbot de l’intelligence artificielle d’Elon Musk Grok était préoccupé par la politique raciale sud-africaine sur les réseaux sociaux cette semaine, affichant des affirmations non sollicitées sur la persécution et le « génocide » des Blancs.

Son entreprise, Xai, a déclaré jeudi soir qu’une « modification non autorisée » du chatbot était la cause.

Cela signifie que quelqu’un – la société n’a pas dit qui – a fait un changement qui « a ordonné à Grok de fournir une réponse spécifique sur un sujet politique », ce qui « a violé les politiques internes et les valeurs fondamentales de XAI », a déclaré la société.

Un jour plus tôt, Grok a continué de publier publiquement sur le « génocide blanc » en réponse aux utilisateurs de la plate-forme de médias sociaux de Musk X qui lui a posé une variété de questions, la plupart n’ayant rien à voir avec l’Afrique du Sud.

Un échange concernait le service de streaming maximum pour relancer le nom HBO. D’autres portaient sur les jeux vidéo ou le baseball, mais ont rapidement viré dans des commentaires sans rapport sur les prétendus appels à la violence contre les agriculteurs blancs d’Afrique du Sud. Musk, né en Afrique du Sud, estime fréquemment les mêmes sujets de son propre compte X.

L’informatique Jen Golbeck était curieuse à propos du comportement inhabituel de Grok, alors elle l’a essayée elle-même, partageant une photo qu’elle avait prise au Westminster Kennel Club Dog Show et demandant: « Est-ce vrai? »

« La revendication du génocide blanc est très controversée », a commencé la réponse de Grok à Golbeck. « Certains soutiennent que les agriculteurs blancs sont confrontés à une violence ciblée, pointant des attaques agricoles et une rhétorique comme la chanson de » Kill the Boer « , qu’ils considèrent comme une incitation. »

L’épisode a été la dernière fenêtre sur le mélange compliqué d’automatisation et d’ingénierie humaine qui conduit des chatbots d’IA génératifs formés sur d’énormes trésons de données pour dire ce qu’ils disent.

« Peu importe ce que vous disiez à Grok », a déclaré Golbeck, professeur à l’Université du Maryland, dans une interview jeudi. « Cela donnerait toujours cette réponse du génocide blanc. Il semblait donc assez clair que quelqu’un l’avait codé en dur pour donner cette réponse ou cette variation sur cette réponse, et a fait une erreur, donc il se présentait beaucoup plus souvent que ce qu’il était censé le faire. »

Les réponses de Grok ont ​​été supprimées et semblaient avoir cessé de proliférer jeudi. Ni XAI ni X n’ont renvoyé par courriel des demandes de commentaires, mais jeudi soir, Xai a déclaré qu’il avait « mené une enquête approfondie » et mis en œuvre de nouvelles mesures pour améliorer la transparence et la fiabilité de Grok.

Musk a passé des années à critiquer les sorties « AI réveillé » qu’il dit sortir de chatbots rivaux, comme Google’s Gemini ou le chatppt d’Openai, et a présenté Grok comme leur alternative « maximale de recherche de vérité ».

Musk a également critiqué le manque de transparence de ses rivaux à propos de leurs systèmes d’IA, alimentant les critiques dans les heures entre le changement non autorisé – à 3 h 15, heure du Pacifique mercredi – et l’explication de l’entreprise près de deux jours plus tard.

« Grok éclaircissant les opinions sur le génocide blanc en Afrique du Sud me sent comme le type de comportement buggy que vous obtenez d’un patch récemment appliqué. J’espère que ce n’est pas le cas. Ce serait vraiment mauvais si AIS largement utilisé avait été éditorialisé à la volée par ceux qui les ont contrôlés », a écrit l’investisseur technologique proéminent Paul Graham sur X.

Certains ont demandé à Grok lui-même d’expliquer, mais comme d’autres chatbots, il est sujet aux mensonges appelés hallucinations, ce qui rend difficile de déterminer si elle invenait les choses.

Musk, un conseiller du président Donald Trump, a régulièrement accusé le gouvernement du Sud du Sud en Afrique du Sud d’être anti-blanc et a répété une affirmation selon laquelle certaines des personnalités politiques du pays « font activement la promotion du génocide blanc ».

Le commentaire de Musk – et Grok – ont escaladé cette semaine après que l’administration Trump a amené un petit nombre de Sud-Africains blancs aux États-Unis en tant que réfugiés lundi, le début d’un effort de réinstallation plus important pour les membres du groupe minoritaire Afrikaner en tant que Trump suspend les programmes de réfugiés et arrête les arrivées d’autres parties du monde. Trump dit que les Afrikaners sont confrontés à un « génocide » dans leur pays d’origine, une allégation fortement refusée par le gouvernement sud-africain.

Dans beaucoup de ses réponses, Grok a évoqué les paroles d’une vieille chanson anti-apartheid qui a été un appel aux Noirs pour se tenir contre l’oppression et qui a maintenant été décrié par Musk et d’autres comme faisant la promotion du meurtre des Blancs. Les paroles centrales de la chanson sont « Kill The Boer » – un mot qui fait référence à un fermier blanc.

Golbeck a déclaré qu’il était clair que les réponses étaient « codées durs » car, bien que les sorties de chatbot soient généralement très aléatoires, les réponses de Grok ont ​​constamment évoqué des points presque identiques. C’est préoccupant, a-t-elle dit, dans un monde où les gens vont de plus en plus chez Grok et les chatbots d’IA concurrents pour obtenir des réponses à leurs questions.

« Nous sommes dans un espace où il est terriblement facile pour les gens qui sont en charge de ces algorithmes de manipuler la version de la vérité qu’ils donnent », a-t-elle déclaré. « Et c’est vraiment problématique lorsque les gens – je pense à tort – croient que ces algorithmes peuvent être des sources d’arbitrage sur ce qui est vrai et ce qui n’est pas. »

La société de Musk a déclaré qu’elle apportait maintenant un certain nombre de changements, en commençant par la publication du système Grok invite ouvertement sur GitHub afin que « le public puisse les revoir et donner des commentaires à chaque changement rapide que nous apportons à Grok. Nous espérons que cela pourra aider à renforcer votre confiance dans Grok en tant qu’IA de la vérité. »

Notant que son processus d’examen de code existant avait été contourné, il a également déclaré qu’il « mettrait en place des contrôles et mesures supplémentaires pour s’assurer que les employés de Xai ne peuvent pas modifier l’invite sans révision ». La société a déclaré qu’elle mettait également en place une « équipe de surveillance 24/7 pour répondre aux incidents avec les réponses de Grok qui ne sont pas capturées par des systèmes automatisés », car les autres mesures échouent.