C’était une question de temps pour arriver ici
Elon Musk s’est toujours défini comme un « absolutiste » de la liberté d’expression. Précisément l’un des objectifs lorsqu’il a acheté Twitter a été de le transformer en une « place publique » dans laquelle parler de tout sans tapage. Il semble qu’il y parvienne, mais maintenant il va plus loin. Maintenant, nous voulons que nous croyions que Grok 3 nous dira toujours la vérité.
Politiquement incorrect. Selon lui, Grok 3 « est une IA qui cherche la vérité au maximum, bien que parfois cette vérité soit en contradiction avec le politiquement correct. » Comme ils le soulignent dans TechCrunch, il l’a dit hier lors de la présentation de cette nouvelle famille de modèles d’IA.
De censure, peu ou rien. Les versions précédentes de Grok ont déjà démontré une tendance à avoir un ton et une « psychologie » différents de ceux de leurs concurrents. La première version a été particulièrement frappante pour son ton sarcastique, et avec Grok 2, les choses sont devenues particulièrement intéressantes dans le domaine de la censure. Surtout, car il n’existait pas, et par exemple, il est possible de générer des foldages profonds de personnages célèbres sans aucun problème à partir d’un X.
Grok 3 et le problème de signification de la vérité. Les promesses de Musk à cet égard sont frappantes, mais à peine réalisables. La raison est simple: que les vérités absolues existent est déjà l’objet du débat en soi, mais il y a un argument puissant contre: les vérités sont généralement relatives et dépendent du contexte ou du point de vue. Les faits sont là, mais leur interprétation est absolument variable et est soumise à des biais. Les humains, oui, mais après, aussi de l’IA.
Une IA neutre? Grok 3 semble vouloir aspirer à devenir un neutre l’IA qui arrive aux faits et qui nous dit la vérité. Ici, un élément en faveur de ces modèles est qu’ils citent récemment les sources sur lesquelles ils sont basés pour donner leurs réponses. Par exemple, la perplexité, et cela aide à contraster ces réponses.
Openai est (un peu) à gauche. Des études de 2003 ont détecté que les modèles d’IA comme Chatgpt avaient certains biais et semblaient se positionner davantage envers ceux qui soutiennent la protection de l’environnement, envers les idéologies libertaires et vers les positions politiques de gauche. Les Gémeaux, le modèle Google, ont été critiqués pour avoir créé des images « réveillées » de Viking ou Nazis Black, par exemple.
Grok 3 pourrait « parler » comme Donald Trump. Qu’un IA est politiquement incorrect nous fait attendre des réponses uniques. Dan Hendrycks, directeur du Center for IA Safety and conseiller de XAI, a expliqué comment un modèle d’IA pourrait réagir comme le fait Donald Trump. Direct, sans ambiguïté et sans tenir compte du politiquement correct. Cela peut être irritant, mais cela permettrait également des opinions impopulaires et des points de vue controversés. C’était des biais, pour le meilleur et pour le pire. Bien sûr, théoriquement sans violer les normes sociales et les principes éthiques, comme l’explique XAI dans son «cadre de gestion des risques».
Modèles partisans. L’étude Hendricks a évalué avec lequel nous, politique,. Il développe l’idée de ce qui appelle une « assemblée citoyenne » dans laquelle les données du recensement de l’UE sur les questions politiques seraient collectées, puis utiliser ces réponses et modifier les valeurs d’une open source LLM. Pour le moment, ce modèle aurait des valeurs qui seraient plus proches de celles de Trump que de Biden, par exemple.
Mais. La vérité est que Grok a dû être mis à jour en août dernier précisément pour ne pas dire la vérité. Cinq secrétaires d’État aux États-Unis ont averti que ce chatbot était de désinformation lorsque les utilisateurs ont interrogé des informations sur les élections alors imminentes. Le changement n’a pas affecté la capacité de Grok à générer des soins aux candidats, bien qu’en septembre 2023 x, la capacité de certains utilisateurs à la désinformation électorale de la République éliminée.
La formation est essentielle. L’IA apprend de ces données que nous fournissons dans le processus de formation, de sorte que les biais qu’une IA peut avoir aura leur origine dans ces données. Si nous formons l’IA avec des données qui profilent vos réponses à un certain courant idéologique et en critiquons une autre, la réplique théoriquement cette position dans votre discours. Aucun détail n’a été donné sur la façon dont Grok 3 s’est entraîné et il est possible que nous ne le sachions jamais, mais si Xai veut que nous «ajustez» vos perspectives et vos préjugés.
Dans Simseo | X a été rempli de photos très étranges de célébrités. Le coupable est Grok, qui n’a aucune limite dans sa création d’images
