Les systèmes de dialogue apprennent de nouveaux mots avec moins de questions

Les systèmes de dialogue apprennent de nouveaux mots avec moins de questions

Des chercheurs de l'Université d'Osaka ont développé un mécanisme qui permet aux systèmes de dialogue parlés d'apprendre de nouveaux mots par la conversation sans les utilisateurs écrasants avec des questions répétitives. En optimisant quand poser une question en utilisant l'apprentissage du renforcement, le système peut réaliser une acquisition efficace de connaissances avec un minimum d'interruptions.

Les systèmes de dialogue actuels ne comprennent souvent pas les mots non inclus dans leurs données de formation, telles que les surnoms, l'argot local ou les termes nouvellement inventés. Bien que les modèles de grands langues puissent gérer le vocabulaire commun sur le Web, ils ont toujours des luttes avec des expressions spécifiques au groupe utilisées dans la conversation quotidienne. Les approches conventionnelles reposent sur la clarification des utilisateurs à plusieurs reprises, ce qui risque de les frustrer et de perturber le flux de dialogue.

Pour relever ce défi, l'équipe Sanken de l'Université d'Osaka a formulé le processus d'apprentissage en tant que problème d'apprentissage actif en cours d'eau. Leur méthode permet au système de décider dynamiquement de demander une confirmation de l'utilisateur.

En introduisant des extensions d'apprentissage du renforcement – y compris la pseudo-étiquetage (auto-apprentissage) et la prise de décision du budget – le système peut mettre à jour efficacement son vocabulaire avec beaucoup moins de requêtes utilisateur. Les expériences de simulation ont confirmé que cette approche améliore les performances de segmentation des mots tout en réduisant le nombre de questions posées.

Cette percée ouvre la voie à des systèmes de dialogue plus naturels et conviviaux. À l'avenir, lorsque ces systèmes font partie de nos maisons, ils pourront apprendre des surnoms spécifiques à la famille et des expressions uniques, devenant des compagnons plus familiers et de confiance plutôt que des outils intrusifs.

« Les modèles de grands langues sont formés sur des données de texte massives, mais elles ne peuvent pas s'adapter aux mots et expressions uniques de chaque ménage par l'interaction », explique le professeur Kazunori Komatani. « Notre travail fait un pas vers des systèmes de dialogue qui apprennent personnellement, ce qui en fait des compagnons plus proches dans la vie quotidienne. »

L'article est intitulé « Apprendre à demander efficacement dans le dialogue: les extensions d'apprentissage du renforcement pour l'apprentissage actif en cours d'eau. »