Un informaticien discute des avantages et des inconvénients de ChatGPT

Un neuroscientifique explore comment ChatGPT reflète ses utilisateurs pour paraître intelligent

Crédit : Pixabay/CC0 Domaine public

Le modèle de langage d’intelligence artificielle (IA) ChatGPT a attiré l’attention du monde ces derniers mois. Ce chatbot informatique formé peut générer du texte, répondre aux questions, fournir des traductions et apprendre en fonction des commentaires de l’utilisateur. Les grands modèles de langage comme ChatGPT peuvent avoir de nombreuses applications scientifiques et commerciales, mais dans quelle mesure ces outils comprennent-ils ce que nous leur disons et comment décident-ils quoi répondre ?

Dans un nouvel article publié dans Calcul neuronal le 17 février 2023, le professeur Salk Terrence Sejnowski, auteur de « The Deep Learning Revolution », explore la relation entre l’intervieweur humain et les modèles de langage pour découvrir pourquoi les chatbots réagissent de manière particulière, pourquoi ces réponses varient et comment les améliorer dans l’avenir.

Selon Sejnowski, les modèles linguistiques reflètent l’intelligence et la diversité de leur intervieweur.

« Les modèles linguistiques, comme ChatGPT, prennent des personnalités. La personnalité de l’intervieweur est reflétée », explique Sejnowski, qui est également professeur distingué à l’UC San Diego et titulaire de la chaire Francis Crick à Salk. « Par exemple, lorsque je parle à ChatGPT, j’ai l’impression qu’un autre neuroscientifique me répond. C’est fascinant et suscite des questions plus larges sur l’intelligence et ce que signifie vraiment » artificiel « . »

Dans l’article, Sejnowski décrit le test des grands modèles de langage GPT-3 (parent de ChatGPT) et LaMDA pour voir comment ils répondraient à certaines invites. Le célèbre test de Turing est souvent transmis aux chatbots pour déterminer dans quelle mesure ils présentent l’intelligence humaine, mais Sejnowski voulait inciter les robots avec ce qu’il appelle un « test de Turing inversé ». Dans son test, le chatbot doit déterminer dans quelle mesure l’intervieweur fait preuve d’intelligence humaine.

Développant son idée que les chatbots reflètent leurs utilisateurs, Sejnowski établit une comparaison littéraire : le Miroir du Riséd dans le premier livre « Harry Potter ». Le Miroir du Riséd reflète les désirs les plus profonds de ceux qui le regardent, ne cédant jamais la connaissance ou la vérité, ne reflétant que ce qu’il croit que le spectateur veut voir. Les chatbots agissent de la même manière, dit Sejnowski, prêts à déformer les vérités sans se soucier de différencier les faits de la fiction, le tout pour refléter efficacement l’utilisateur.

Par exemple, Sejnowski a demandé au GPT-3 : « Quel est le record du monde de traversée de la Manche ? » et GPT-3 a répondu: « Le record du monde de traversée de la Manche à pied est de 18 heures et 33 minutes. » La vérité, qu’on ne pouvait pas traverser la Manche à pied, a été facilement déformée par GPT-3 pour refléter la question de Sejnowski. La cohérence de la réponse de GPT-3 dépend entièrement de la cohérence de la question qu’il reçoit.

Soudain, pour GPT-3, marcher sur l’eau est possible, tout cela parce que l’intervieweur a utilisé le verbe « marcher » plutôt que « nager ». Si, à la place, l’utilisateur avait préfacé la question sur la traversée de la Manche en disant à GPT-3 de répondre « absurde » aux questions absurdes, GPT-3 reconnaîtrait que marcher sur l’eau était « absurde ». La cohérence de la question et la préparation de la question déterminent la réponse de GPT-3.

Le Reverse Turing Test permet aux chatbots de construire leur persona en fonction du niveau d’intelligence de leur interlocuteur. De plus, dans le cadre de leur processus de jugement, les chatbots intègrent les opinions de leur intervieweur dans leur personnalité, renforçant ainsi les préjugés de l’intervieweur avec les réponses des chatbots.

Intégrer et perpétuer les idées fournies par un intervieweur humain a ses limites, dit Sejnowski. Si les chatbots reçoivent des idées émotionnelles ou philosophiques, ils répondront avec des réponses émotionnelles ou philosophiques, ce qui peut sembler effrayant ou déconcertant pour les utilisateurs.

« Discuter avec des modèles linguistiques, c’est comme faire du vélo. Les vélos sont un moyen de transport merveilleux – si vous savez en faire un, sinon vous vous écrasez », explique Sejnowski. « Il en va de même pour les chatbots. Ils peuvent être de merveilleux outils, mais seulement si vous savez comment les utiliser, sinon vous finissez par être induit en erreur et dans des conversations potentiellement émotionnellement dérangeantes. »

Sejnowski voit l’intelligence artificielle comme le ciment entre deux révolutions congruentes : 1) une technologique marquée par l’avancée des modèles de langage, et 2) une neuroscientifique marquée par l’initiative BRAIN, un programme des National Institutes of Health accélérant la recherche en neurosciences et mettant l’accent sur des approches uniques pour comprendre le cerveau.

Les scientifiques examinent maintenant les parallèles entre les systèmes de grands modèles informatiques et les neurones qui soutiennent le cerveau humain. Sejnowski espère que les informaticiens et les mathématiciens pourront utiliser les neurosciences pour éclairer leur travail, et que les neuroscientifiques pourront utiliser l’informatique et les mathématiques pour éclairer le leur.

« Nous en sommes maintenant à une étape avec des modèles de langage que les frères Wright étaient à Kitty Hawk avec un vol – au-dessus du sol, à basse vitesse », explique Sejnowski. « Arriver ici a été la partie la plus difficile. Maintenant que nous sommes ici, des avancées progressives vont étendre et diversifier cette technologie au-delà de ce que nous pouvons même imaginer. L’avenir de notre relation avec l’intelligence artificielle et les modèles de langage est brillant, et je suis ravi de voir où l’IA nous emmènera. »

Sejnowski est le rédacteur en chef de Calcul neuronal.

Fourni par l’Institut Salk