Un modèle d'apprentissage en profondeur qui génère un comportement social non verbal pour les robots

Un modèle d’apprentissage en profondeur qui génère un comportement social non verbal pour les robots

La génération du comportement social du robot consiste à attribuer le comportement suivant au robot afin de répondre au comportement actuel de l’utilisateur tout en maintenant la continuité avec le comportement actuel du robot.

Des chercheurs de l’Institut de recherche en électronique et télécommunications (ETRI) en Corée ont récemment développé un modèle basé sur l’apprentissage en profondeur qui pourrait aider à produire des comportements sociaux non verbaux engageants, tels que serrer dans ses bras ou serrer la main de quelqu’un, chez les robots. Leur modèle, présenté dans un article prépublié sur arXiv, peut activement apprendre de nouveaux comportements sociaux adaptés au contexte en observant les interactions entre humains.

« Les techniques d’apprentissage en profondeur ont produit des résultats intéressants dans des domaines tels que la vision par ordinateur et la compréhension du langage naturel », a déclaré Woo-Ri Ko, l’un des chercheurs qui a mené l’étude, à TechXplore. « Nous avons décidé d’appliquer l’apprentissage profond à la robotique sociale, notamment en permettant aux robots d’apprendre par eux-mêmes le comportement social à partir des interactions homme-homme. Notre méthode ne nécessite aucune connaissance préalable des modèles de comportement humain, qui sont généralement coûteux et longs à mettre en œuvre. . »

L’architecture basée sur le réseau de neurones artificiels (ANN) développée par Ko et ses collègues combine le modèle Seq2Seq (séquence à séquence) introduit par les chercheurs de Google en 2014 avec des réseaux antagonistes génératifs (GAN). La nouvelle architecture a été entraînée sur l’ensemble de données AIR-Act2Act, une collection de 5 000 interactions humaines-humaines se produisant dans 10 scénarios différents.

« L’architecture de réseau neuronal proposée se compose d’un encodeur, d’un décodeur et d’un discriminateur », a expliqué Ko. « L’encodeur encode le comportement actuel de l’utilisateur, le décodeur génère le prochain comportement du robot en fonction des comportements actuels de l’utilisateur et du robot, et le discriminateur empêche le décodeur de produire des séquences de pose invalides lors de la génération d’un comportement à long terme. »

Les 5 000 interactions incluses dans le Jeu de données AIR-Act2Act ont été utilisés pour extraire plus de 110 000 échantillons d’entraînement (c’est-à-dire de courtes vidéos), dans lesquels des humains exécutaient des comportements sociaux non verbaux spécifiques tout en interagissant avec les autres. Les chercheurs ont spécifiquement formé leur modèle pour générer cinq comportements non verbaux pour les robots, à savoir s’incliner, regarder, serrer la main, étreindre et bloquer leur propre visage.

Ko et ses collègues ont évalué leur modèle de génération de comportement social non verbal dans une série de simulations, en l’appliquant spécifiquement à une version simulée de Pepper, un robot humanoïde largement utilisé dans les environnements de recherche. Leurs découvertes initiales étaient prometteuses, car leur modèle a généré avec succès les cinq comportements sur lesquels il a été formé à des moments appropriés lors d’interactions simulées avec des humains.

« Nous avons montré qu’il est possible d’enseigner aux robots différents types de comportements sociaux en utilisant une approche d’apprentissage en profondeur », a déclaré Ko. « Notre modèle peut également générer des comportements plus naturels, au lieu de répéter des comportements prédéfinis dans l’approche existante basée sur des règles. Avec le robot générant ces comportements sociaux, les utilisateurs auront le sentiment que leur comportement est compris et émotionnellement pris en charge. »

Le nouveau modèle créé par cette équipe de chercheurs pourrait aider à rendre les robots sociaux plus adaptatifs et socialement réactifs, ce qui pourrait à son tour améliorer la qualité globale et le flux de leurs interactions avec les utilisateurs humains. À l’avenir, il pourrait être mis en œuvre et testé sur une large gamme de systèmes robotiques, notamment des robots de service à domicile, des robots guides, des robots de livraison, des robots éducatifs et des robots de téléprésence.

« Nous avons maintenant l’intention de mener d’autres expériences pour tester la capacité d’un robot à présenter des comportements sociaux appropriés lorsqu’il est déployé dans le monde pratique et face à un humain ; le générateur de comportement proposé serait testé pour sa robustesse aux données d’entrée bruyantes qu’un robot est susceptible d’acquérir. « , a ajouté Ko. « De plus, en collectant et en apprenant davantage de données d’interaction, nous prévoyons d’étendre le nombre de comportements sociaux et d’actions complexes qu’un robot peut présenter. »