Nous demandons à ChatGPT des choses au-delà de nos moyens (et des vôtres)
Nous vous demandons tout sur ChatGPT, et c’est dangereux. C’est parce que ses propres créateurs ont expliqué dès son lancement que ce chatbot « écrit des réponses plausibles mais incorrectes ou absurdes ». C’est-à-dire : il fait des erreurs, mais il le fait d’une manière qui n’en a pas l’air. Son ton est si convaincant, en effet, qu’on pourrait penser qu’il a la bonne réponse à tout. Et ce n’est pas comme ça.
perroquets stochastiques. Ce terme, inventé pour la première fois par Emily M. Bender dans une étude de 2021, a fini par devenir très populaire lorsqu’on parle de grands modèles de langage (LLM), qui sont le pilier du fonctionnement des chatbots comme ChatGPT ou Bard. Le concept essaie de rendre quelque chose de très clair : ChatGPT et ses concurrents ne sont pas vraiment « intelligents », et utilisent des modèles statistiques qui « perroquetent » après les avoir appris à partir de grands ensembles de données. Ils ne comprennent pas le langage qu’ils traitent. Du moins pas comme les humains.
bon pour certaines choses. Cela signifie que selon les scénarios, ChatGPT peut mieux se comporter. Il est vrai qu’il a déjà bien réussi aux tests dans diverses matières – GPT-4 a fait encore mieux – mais il a obtenu ces notes non pas parce qu’il comprenait les questions ou connaissait les réponses, mais parce que ces réponses étaient les plus probables compte tenu du problème donné. Ces moteurs conversationnels sont également utiles lors de la programmation – et de plus en plus – ou pour répondre à des questions spécifiques dans des problèmes spécifiques. Dans ces cas-là, oui, tous les experts préviennent : il faut revoir les réponses, car ChatGPT et ses rivaux inventent des choses.
fantastique à créer. Lorsque les gens parlaient de l’intelligence artificielle et de son impact sur le travail il y a des années, il semblait que les personnes les moins touchées par cette révolution seraient probablement celles qui occupaient des postes créatifs. Cela a complètement changé avec les modèles d’IA générative dans le texte, la musique ou l’image : tout à coup, la créativité humaine est surprise par des modèles qui écrivent des poèmes et des romans, prennent des photos ou peignent des images et écrivent des chansons d’une qualité étonnante et qui est souvent impossible à distinguer de ce qu’un humain pourrait ont créé. C’est là que l’IA brille.
mais pas pour tout. Mais ChatGPT ne sait pas tout, loin de là. Dans MuyInteresante, ils ont réalisé une expérience et ont demandé à ce chatbot qui avait été la personne la plus intelligente de l’histoire. Le service OpenAI a répondu qu’Albert Einstein, Léonard de Vinci, Isaac Newton et Marie Curie en faisaient partie. La liste était modeste et clairement incomplète, mais la question était de trop même pour ce chatbot. Bien sûr : ChatGPT a averti très tôt que « l’intelligence se manifeste sous diverses formes. De plus, il y a de nombreuses personnes à travers l’histoire qui ont apporté des contributions significatives dans divers domaines et qui pourraient être considérées comme des personnes très intelligentes ».
ChatGPT ne peut pas répondre à cela comme tant d’autres choses. Le dernier avertissement que ce chatbot a donné était justement une bonne façon de reconnaître qu’elle-même ne connaissait pas la réponse à cette question. Ni elle, ni vraiment personne. Vous pouvez faire des listes basées sur le QI, ou aller un peu plus loin et compiler des listes qui tiennent également compte des réalisations personnelles de ces génies. Et même alors, il est presque impossible de donner une réponse complète et correcte.
ChatGPT sait que ce n’est pas parfait. Heureusement, ce message ChatGPT révèle, comme dans d’autres situations, sa véritable nature. Ses créateurs dans OpenAI – comme d’autres l’ont fait chez d’autres rivaux – ont bien fait d’inclure ce type d’avertissement lorsqu’ils donnent des réponses, mais malgré cela, de nombreux utilisateurs peuvent confondre la situation. ChatGPT n’est pas un référentiel de sagesse, bien qu’il puisse fournir des réponses comme s’il l’était.