ChatGPT remplacera-t-il les écrivains humains ?  Un psychologue intervient

ChatGPT remplacera-t-il les écrivains humains ? Un psychologue intervient

Steven Pinker. Crédit : Rebecca Goldstein

Steven Pinker pense que ChatGPT est vraiment impressionnant – et le sera encore plus une fois qu’il « arrêtera d’inventer des trucs » et deviendra moins sujet aux erreurs. L’enseignement supérieur, en effet, une grande partie du monde, a été mis en effervescence en novembre lorsque OpenAI a dévoilé son chatbot ChatGPT capable de répondre instantanément aux questions (en fait, de composer des écrits dans divers genres) dans une gamme de domaines d’une manière conversationnelle et ostensiblement autoritaire.

Utilisant un type d’IA appelé grand modèle de langage (LLM), ChatGPT est capable d’apprendre et d’améliorer continuellement ses réponses. Mais à quel point cela peut-il être bon? Pinker, le professeur de psychologie de la famille Johnstone, a étudié, entre autres, les liens entre l’esprit, le langage et la pensée dans des livres comme le best-seller primé « The Language Instinct » et a quelques réflexions personnelles sur la question de savoir si nous devrions être préoccupé par le potentiel de ChatGPT à déplacer les humains en tant qu’écrivains et penseurs. L’interview a été modifiée pour plus de clarté et de longueur.

GAZETTE : ChatGPT a attiré beaucoup d’attention, et beaucoup d’entre elles ont été négatives. Selon vous, quelles sont les questions importantes qu’il soulève ?

PINKER: Cela montre certainement à quel point nos intuitions échouent lorsque nous essayons d’imaginer quels modèles statistiques se cachent dans un demi-billion de mots de texte et peuvent être capturés dans 100 milliards de paramètres. Comme la plupart des gens, je n’aurais pas deviné qu’un système qui ferait cela serait capable, disons, d’écrire le discours de Gettysburg dans le style de Donald Trump.

Il y a des modèles de modèles de modèles de modèles dans les données que nous, les humains, ne pouvons pas comprendre. Il est impressionnant de voir comment ChatGPT peut générer une prose plausible, pertinente et bien structurée, sans aucune compréhension du monde – sans objectifs manifestes, sans faits explicitement représentés ou autres choses que nous aurions pu penser nécessaires pour générer une prose à consonance intelligente.

Et cette apparence de compétence rend ses maladresses d’autant plus frappantes. Il prononce des confabulations confiantes, comme le fait que les États-Unis ont eu quatre présidentes, dont Luci Baines Johnson, 1973-1977. Et il commet des erreurs élémentaires de bon sens. Depuis 25 ans, j’ai commencé mon cours d’introduction à la psychologie en montrant comment notre meilleure intelligence artificielle ne peut toujours pas reproduire le bon sens ordinaire.

Cette année, j’étais terrifié à l’idée que cette partie de la conférence soit obsolète car les exemples que j’ai donnés seraient interprétés par GPT. Mais je n’avais pas à m’inquiéter. Quand j’ai demandé à ChatGPT, « Si Mabel était vivante à 9 h et 17 h, était-elle vivante à midi ? » il a répondu: « Il n’a pas été précisé si Mabel était en vie à midi. Elle est connue pour être en vie à 9 et 5, mais aucune information n’a été fournie sur sa vie à midi. »

Donc, il ne saisit pas les faits de base du monde – comme les gens vivent pendant des périodes continues et une fois que vous êtes mort, vous restez mort – parce qu’il n’a jamais rencontré de texte qui l’ait rendu explicite. (À son crédit, il savait que les poissons rouges ne portent pas de sous-vêtements.)

Nous avons affaire à une intelligence extraterrestre capable de prouesses étonnantes, mais pas à la manière de l’esprit humain. Nous n’avons pas besoin d’être exposés à un demi-billion de mots de texte (ce qui, à trois mots par seconde, huit heures par jour, prendrait 15 000 ans) pour parler ou résoudre des problèmes. Néanmoins, il est impressionnant de voir ce que vous pouvez tirer de modèles statistiques d’ordre très, très, très élevé dans des ensembles de données gigantesques.

GAZETTE : Open AI a déclaré que son objectif était de développer l’intelligence artificielle générale. Est-ce conseillé ou même possible ?

PINKER : Je pense que c’est incohérent, comme une « machine générale » est incohérente. Nous pouvons visualiser toutes sortes de superpuissances, comme le vol et l’invulnérabilité de Superman et la vision aux rayons X, mais cela ne signifie pas qu’elles sont physiquement réalisables. De même, nous pouvons fantasmer sur une superintelligence qui déduit comment nous rendre immortels ou apporter la paix mondiale ou prendre le contrôle de l’univers. Mais la véritable intelligence consiste en un ensemble d’algorithmes pour résoudre des types particuliers de problèmes dans des types particuliers de mondes. Ce que nous avons maintenant, et que nous aurons probablement toujours, ce sont des appareils qui dépassent les humains dans certains défis et pas dans d’autres.

GAZETTE : Êtes-vous préoccupé par son utilisation dans votre classe ?

PINKER : Pas plus que le téléchargement de dissertations à partir de sites Web. Le Collège nous a demandé de rappeler aux étudiants que la promesse d’honneur exclut la soumission de travaux qu’ils n’ont pas rédigés. je ne suis pas naïf; Je sais que certains étudiants de Harvard pourraient être des menteurs éhontés, mais je ne pense pas qu’il y en ait beaucoup. De plus, du moins jusqu’à présent, une grande partie de la sortie de ChatGPT est facile à démasquer car elle mélange des citations et des références qui n’existent pas.

GAZETTE : Il y a une série de choses qui inquiètent les gens avec ChatGPT, y compris la désinformation et les emplois en jeu. Y a-t-il une chose en particulier qui vous inquiète ?

PINKER : La peur des nouvelles technologies est toujours motivée par des scénarios du pire qui puisse arriver, sans anticiper les contre-mesures qui surgiraient dans le monde réel. Pour les grands modèles de langage, cela inclura le scepticisme que les gens cultiveront à l’égard du contenu généré automatiquement (les journalistes ont déjà cessé d’utiliser le gadget consistant à faire écrire par GPT leurs chroniques sur GPT parce que les lecteurs sont dessus), le développement de garde-fous professionnels et moraux (comme la promesse d’honneur de Harvard), et éventuellement des technologies qui filigranent ou détectent la sortie LLM.

Il existe d’autres sources de refoulement. La première est que nous avons tous des intuitions profondes sur les liens de causalité avec les gens. Un collectionneur pourrait payer 100 000 $ pour les clubs de golf de John F. Kennedy, même s’ils sont indiscernables de tous les autres clubs de golf de cette époque. La demande d’authenticité est encore plus forte pour les produits intellectuels comme les histoires et les éditoriaux : la prise de conscience qu’il existe un véritable humain auquel vous pouvez le connecter change son statut et son acceptabilité.

Un autre revers viendra des bévues du front, comme le fait que le verre pilé gagne en popularité en tant que complément alimentaire ou que neuf femmes peuvent faire un bébé en un mois. Au fur et à mesure que les systèmes sont améliorés par la rétroaction humaine (souvent des fermes à clics dans les pays pauvres), il y aura moins de ces cogneurs, mais étant donné les possibilités infinies, ils seront toujours là.

Et, surtout, il n’y aura pas de trace écrite nous permettant de vérifier les faits d’une affirmation. Avec un écrivain ordinaire, vous pouvez demander à la personne et retrouver les références, mais dans un LLM, un « fait » est étalé sur des milliards de minuscules ajustements de variables quantitatives, et il est impossible de retrouver et de vérifier une source.

Néanmoins, il existe sans aucun doute de nombreux types de passe-partout qui pourraient être produits par un LLM aussi facilement que par un humain, et cela pourrait être une bonne chose. Peut-être ne devrions-nous pas payer les heures facturables d’un avocat coûteux pour rédiger un testament ou un accord de divorce qui pourrait être généré automatiquement.

GAZETTE : Nous entendons beaucoup parler des inconvénients potentiels. Y a-t-il un avantage potentiel?

PINKER : Un exemple serait son utilisation comme moteur de recherche sémantique, par opposition à nos moteurs de recherche actuels, qui sont alimentés par des chaînes de caractères. Actuellement, si vous avez une idée plutôt qu’une chaîne de texte, il n’y a pas de bon moyen de la rechercher. Or, un vrai moteur de recherche sémantique aurait, contrairement à un LLM, un modèle conceptuel du monde. Il aurait des symboles pour les personnes, les lieux, les objets et les événements, ainsi que des représentations d’objectifs et de relations causales, quelque chose de plus proche du fonctionnement de l’esprit humain. Mais pour un simple outil, comme un moteur de recherche, où vous voulez juste récupérer des informations utiles, je peux voir qu’un LLM pourrait être extrêmement utile, tant qu’il arrête d’inventer des trucs.

GAZETTE : Si nous regardons vers l’avenir et que ces choses s’améliorent – potentiellement de manière exponentielle – y a-t-il des impacts pour les humains sur ce que signifie être appris, être informé, voire être expert ?

PINKER: Je doute que cela s’améliore de façon exponentielle, mais cela s’améliorera. Et, comme avec l’utilisation des ordinateurs pour compléter l’intelligence humaine dans le passé – depuis le calcul et la tenue de registres dans les années 60, la recherche dans les années 90 et toutes les autres étapes – nous augmenterons nos propres limites. . Tout comme nous avons dû reconnaître nos propres capacités de mémoire et de calcul limitées, nous reconnaîtrons que récupérer et digérer de grandes quantités d’informations est quelque chose que nous pouvons bien faire, mais que les esprits artificiels peuvent faire mieux.

Étant donné que les LLM fonctionnent si différemment de nous, ils pourraient nous aider à comprendre la nature de l’intelligence humaine. Ils pourraient approfondir notre appréciation de ce en quoi consiste la compréhension humaine lorsque nous la comparons à des systèmes qui semblent superficiellement la dupliquer, la dépasser à certains égards et échouer à d’autres.

GAZETTE : L’humain ne sera donc pas supplanté par l’intelligence artificielle générale ? Nous serons toujours au top, essentiellement ? Ou est-ce le mauvais cadrage ?

PINKER: C’est le mauvais cadrage. Il n’y a pas d’échelle d’intelligence unidimensionnelle qui embrasse tous les esprits imaginables. Bien sûr, nous utilisons le QI pour mesurer les différences entre les humains, mais cela ne peut pas être extrapolé vers le haut à un tout-déducteur, ne serait-ce que parce que sa connaissance de la réalité empirique est limitée par ce qu’il peut observer. Il n’y a pas d’algorithme d’émerveillement omniscient et omnipotent : il y a autant d’intelligences qu’il y a de buts et de mondes.

Fourni par Harvard Gazette