Ils nous montrent comment ils pensent
Lorsque Chatgpt est apparu, cela semblait magique, mais aussi effrayé un peu, surtout parce que nous ne savions pas comment il faisait ce qu’il faisait. Pas même Openai lui-même le savait, et en fait il a créé un outil pour le découvrir en mai 2023, quelques mois après son lancement. Malgré tout, la situation n’a pas trop changé, mais en 2025, nous avons découvert quelque chose d’important: nous aimons savoir à quoi pensent les machines.
Dites-moi ce que vous en pensez et je vous dirai quel modèle d’IA vous êtes. Deepseek R1 nous a non seulement impressionnés pour être un modèle de raisonnement gratuit, capable et open source: il a également montré à quoi je pensais. Bien qu’il fasse plus de temps pour générer les réponses, vous pouvez voir « ce qui est machine à tout moment » et cela a été une avance particulière.
Embrats humains. Ils le soulignent dans le Washington Post, où ils indiquent comment ce modèle de grattage indique comment la question ou le problème finit par donner le Rspiente final. En fait, la langue utilisée en montrant ce processus de réflexion est proche, car le chatbot présente des béquilles telles que « attendre », « hmmm » ou « ajá ».
Chatbots un peu plus près. Des modèles de raisonnement tels que Deepseek R1, O1 ou Gemini 2.0 Flash Thinking ont également l’avantage qu’ils passent en revue leurs réponses, ce qui leur fait se tromper moins que les chatbots traditionnels. Lorsque le «raisonnement» montre également une communication qui simule ce qu’un être humain pourrait utiliser et qui nous fait paraître moins … distant.
Empathie. Le résultat est que nous montrant comment ils pensent, ces modèles nous font ressentir de l’empathie envers eux, disent des experts tels qu’Ethan Mollick, professeur à la Wharton School de l’Université de Pennsylvanie. D’autres, comme Subbarao Kambhampati, professeur de l’Arizona State University, ont averti: on ne sait pas si ces « chaînes de pensée » montrent que ces modèles montrent lorsque le raisonnement reflète vraiment comment l’information traite les modèles.
Rien ne se passe s’ils errent. Cet expert souligne également que cette chaîne de raisonnement semble être trop précise, sans moments errants ou erratiques. Les entreprises qui développent ces modèles sont remarquées que la réponse est correcte que, dans le fait que le processus de raisonnement est cohérent. Pour Kambhampati, cette anthromorphisation « du raisonnement devrait être distribuée, ce qui n’est pas particulièrement utile.
Chatbots avec personnalité. Cette curieuse caractéristique des modèles de raisonnement semble montrer que le ton avec lequel les chatbots répond influencent clairement notre façon de les percevoir. Quand Elon Musk et Xai ont lancé leur première version de Grok, il était clair qu’ils cherchaient un ton sarcastique qui était moins « robotique ». Le problème est que le chatbot n’était pas particulièrement précis dans ses réponses, mais cela a été amélioré dans Grok 2, qui est désormais accessible à tous les utilisateurs.
Les avatars virtuels de Replika essaient précisément d’analyser le ton et le contexte des utilisateurs pour y répondre de manière rapprochée. Les chatbots du futur peuvent essayer avec précision de profiter de tous ces outils et techniques afin que l’empathie envers les machines se développe, et Deepseek R1 / O1 soit une première étape intéressante dans cette direction.
Image | Beata_73601 avec Midjourney
Dans Simseo | L’obsession réglementaire de l’UE soulève un monde dans lequel l’IA aura deux vitesses. Et l’Europe perdra
