Un grand modèle de langage qui répond aux questions philosophiques

Un grand modèle de langage qui répond aux questions philosophiques

Crédit: arXiv (2023). DOI : 10.48550/arxiv.2302.01339

Depuis quelques années, les informaticiens tentent de créer des systèmes de dialogue et d’information de plus en plus évolués. La sortie de ChatGPT et d’autres modèles de langage très performants démontre à quel point l’intelligence artificielle peut aller pour répondre aux questions des utilisateurs, écrire des textes et converser avec les humains.

Des chercheurs de l’Université de Californie-Riverside, de l’École Normale Supérieure (ECN) de Paris et de Ludwig-Maximilians-Universität München ont développé un grand modèle de langage qui peut répondre à des questions philosophiques avec la voix d’un philosophe spécifique. Ce modèle, présenté dans un article publié sur le serveur de pré-impression arXivpeuvent générer de manière autonome des réponses qui ressemblent étroitement à celles produites par les philosophes humains.

« Anna Strasser, Matthew Crosby et moi avions remarqué que les gens créaient des sorties GPT-3 dans le style de divers écrivains ou autres philosophes », a déclaré Eric Schwitzgebel, l’un des chercheurs qui a mené l’étude, à Tech Xplore. « Nous avons pensé qu’il serait intéressant de voir si nous pouvions affiner GPT-3 (Generative Pre-trained Transformer 3) sur l’ensemble de l’œuvre d’un philosophe, puis lui poser des questions et voir s’il disait des choses que le vrai philosophe pourrait a dit. »

Les chercheurs ont décidé d’utiliser GPT-3, un modèle créé par OpenAI qui sous-tend le fonctionnement de ChatGPT. Ils ont d’abord entraîné ce modèle sur des textes de Kant, puis sur le blog de Schwitzgebel, intitulé The Spintered Mind, et enfin, avec son autorisation, sur la plupart des œuvres du philosophe américain Daniel Dennett.

« Nous avons décidé qu’il serait intéressant de voir si les experts pouvaient distinguer le modèle affiné des réponses de Dennett aux mêmes questions », a déclaré Schwitzgebel. « Matt a dû quitter le projet, alors nous avons embarqué mon fils David Schwitzgebel, qui est étudiant diplômé en sciences cognitives à l’ENS de Paris. »

GPT-3 est un modèle de langage autorégressif qui utilise l’apprentissage en profondeur pour générer des textes. Le modèle prédit essentiellement le mot suivant dans une phrase ou dans une séquence de mots, en utilisant des techniques statistiques complexes et puissantes.

« Par exemple, supposons que je dise: » Je vais emmener ma femme en voyage romantique « et que je vous demande ensuite de deviner le mot suivant », a expliqué Schwitzgebel. « Vous êtes probablement plus susceptible de répondre « Paris » que « poubelle » ou « jaune » – bien que la phrase puisse bien sûr être complétée de différentes manières. À l’aide d’un énorme corpus de texte, GPT-3 examine l’ensemble du contexte antérieur. d’une phrase (jusqu’à plusieurs centaines de mots) puis devine statistiquement le mot suivant. Il ne le fait pas parce qu’il « sait » que Paris est romantique, mais plutôt parce que dans la grande base de données d’usage de la langue, il aura vu des mots comme « romantique ». ‘ et ‘voyage’ précédant ‘Paris’ plus fréquemment que précédant ‘ordures.' »

Dans le cadre de leur étude récente, Schwitzgebel et ses collègues ont affiné GPT-3 sur les travaux antérieurs de Dannett. En d’autres termes, ils ont en outre formé le modèle sur les textes du philosophe, pour s’assurer qu’il pondère plus fortement les modèles d’utilisation typiques des mots de Dennett que les autres modèles d’utilisation des mots lors de la prédiction du mot suivant dans une phrase.

« J’ai été particulièrement frappé par le fait que les experts n’ont pu deviner correctement que 50 % du temps, compte tenu des réponses de Dennett et de quatre sorties GPT-3 non sélectionnées, ce qui est meilleur que le taux de chance de 20 %, mais loin de notre hypothèse. taux de 80 % », a déclaré Schwitzgebel. « Non sélectionné signifie que nous n’avons pas essayé de sélectionner de bonnes sorties. Nous avons juste pris les premières sorties qui répondaient à quelques critères mécaniques. Cela suggère qu’un modèle affiné de GPT-3 peut être étonnamment proche de parler en la voix d’un philosophe particulier. »

Pour évaluer leur modèle, qu’ils ont baptisé « Digi-Dan », les chercheurs ont demandé à 425 utilisateurs humains s’ils pouvaient faire la distinction entre les réponses aux questions philosophiques générées par le modèle et celles produites par Dennett. Remarquablement, ils ont constaté que les philosophes experts et les lecteurs de blogs de philosophie pouvaient identifier les réponses du philosophe environ 50% du temps, tandis que les participants ordinaires sans ou peu de connaissances en philosophie reconnaissaient les réponses de Dennett environ 20% du temps.

Ces résultats suggèrent que les textes produits par « DigiDan » pourraient parfois être confondus avec ceux écrits par un philosophe, mais il y a encore place à l’amélioration. À l’avenir, Schwitzgebel et ses collègues prévoient de continuer à travailler sur leur modèle et à explorer ses possibles implémentations dans le monde réel.

« Nous commençons maintenant à réfléchir aux conséquences sociales possibles de cela et à son potentiel en tant qu’outil », a ajouté Schwitzgebel. « Par exemple, un philosophe pourrait-il affiner un modèle sur son propre travail et ensuite utiliser ses résultats comme source d’idées ? Un historien de la philosophie pourrait-il créer un modèle de philosophe et ensuite lui poser des questions que le philosophe historique n’a jamais posées « Nous ne pouvions pas croire à ce stade que les résultats seraient fiables, mais ils pourraient au moins être suggestifs et susciter la réflexion. »