Un robot-chien polyvalent qui traverse une plage de sable à 3 mètres par seconde

Un robot-chien polyvalent qui traverse une plage de sable à 3 mètres par seconde

Adaptabilité du contrôleur proposé à divers environnements au sol. Le contrôleur a appris d’un large éventail de simulations de médias granulaires aléatoires a montré une adaptabilité à divers terrains naturels et artificiels, et a démontré une capacité de marche à grande vitesse et une efficacité énergétique. Crédit : Institut supérieur coréen des sciences et technologies (KAIST)

Une équipe de recherche dirigée par le professeur Hwangbo Jemin du département de génie mécanique du KAIST a mis au point une technologie de contrôle de robot quadrupède capable de marcher avec agilité et robustesse même sur un terrain déformable comme une plage de sable.

L’équipe de recherche du professeur Hwangbo a développé une technologie pour modéliser la force reçue par un robot marcheur au sol constitué de matériaux granulaires comme le sable et l’a simulée via un robot quadrupède. En outre, l’équipe a travaillé sur une structure de réseau de neurones artificiels capable de prendre des décisions en temps réel pour s’adapter à différents types de surfaces au sol sans information préalable tout en marchant en même temps et l’a appliquée à l’apprentissage par renforcement.

Le contrôleur de réseau neuronal formé devrait élargir la portée des robots marcheurs quadrupèdes en prouvant sa robustesse sur un terrain changeant, y compris la capacité de se déplacer à grande vitesse même sur une plage de sable et de marcher et de tourner sur des sols mous comme un matelas pneumatique sans perdre solde.

Cette recherche, avec un doctorat. Étudiant Soo-Young Choi du Département de génie mécanique du KAIST en tant que premier auteur, a été publié en janvier dans Robotique scientifiqueintitulé « Apprentissage de la locomotion quadrupède sur terrain déformable ».

L’apprentissage par renforcement est une méthode d’apprentissage de l’IA utilisée pour créer une machine qui collecte des données sur les résultats de diverses actions dans une situation arbitraire et utilise cet ensemble de données pour effectuer une tâche. Parce que la quantité de données requises pour l’apprentissage par renforcement est si vaste, une méthode de collecte de données par le biais de simulations qui se rapproche des phénomènes physiques dans l’environnement réel est largement utilisée.

En particulier, les contrôleurs basés sur l’apprentissage dans le domaine des robots marcheurs ont été appliqués à des environnements réels après apprentissage à travers des données collectées dans des simulations pour effectuer avec succès des contrôles de marche sur divers terrains.

RaiBo - un robot-chien polyvalent court à travers la plage de sable à 3 mile/sec

Définition du modèle de contact. (A) Le modèle de terrain prédit une composante verticale de la force de réaction au sol en fonction de la profondeur et de la vitesse de pénétration de l’intrus. Le calcul implique le développement du cône granulaire sous l’intrus, comme Aguilar et al. (27) proposé.(B) Le contact de surface entre l’intrus et les substrats adjacents est approximé comme un contact ponctuel au point le plus profond. La force tangentielle globale des substrats est supposée être le frottement de Coulomb. (C) Le modèle de force résistive à course horizontale est introduit pour simuler la réaction des substrats lorsque l’intrus se déplace horizontalement dans les substrats. La force est calculée sur la base de la distance parcourue dHSR et de la profondeur de pénétration actuelle zt. Crédit : Institut supérieur coréen des sciences et technologies (KAIST)

Cependant, étant donné que les performances du contrôleur basé sur l’apprentissage diminuent rapidement lorsque l’environnement réel présente un écart par rapport à l’environnement de simulation appris, il est important de mettre en œuvre un environnement similaire à l’environnement réel lors de la phase de collecte de données. Par conséquent, afin de créer un contrôleur basé sur l’apprentissage qui peut maintenir l’équilibre dans un terrain déformant, le simulateur doit fournir une expérience de contact similaire.

L’équipe de recherche a défini un modèle de contact qui prédit la force générée lors du contact à partir de la dynamique du mouvement d’un corps en marche sur la base d’un modèle de force de réaction au sol prenant en compte l’effet de masse supplémentaire des milieux granulaires définis dans des études précédentes.

RaiBo - un robot-chien polyvalent court à travers la plage de sable à 3 mile/sec

RaiBo sur une course à la plage. Crédit : Institut supérieur coréen des sciences et technologies (KAIST)

De plus, en calculant la force générée par un ou plusieurs contacts à chaque pas de temps, le terrain déformant a été efficacement simulé.

L’équipe de recherche a également introduit une structure de réseau neuronal artificiel qui prédit implicitement les caractéristiques du sol en utilisant un réseau neuronal récurrent qui analyse les données de séries chronologiques des capteurs du robot.

Le contrôleur appris a été monté sur le robot RaiBo, qui a été construit par l’équipe de recherche pour montrer une marche à grande vitesse allant jusqu’à 3,03 mètres/seconde sur une plage de sable où les pieds du robot étaient complètement immergés dans le sable. Même appliqué à des sols plus durs, tels que des champs herbeux et une piste de course, RaiBo a pu fonctionner de manière stable en s’adaptant aux caractéristiques du sol sans aucune programmation supplémentaire ni révision de l’algorithme de contrôle.

RaiBo - un robot-chien polyvalent court à travers la plage de sable à 3 mile/sec

L’équipe du laboratoire RAI avec le professeur Hwangbo au milieu de la rangée arrière. Crédit : Institut supérieur coréen des sciences et technologies (KAIST)

De plus, il tournait avec stabilité à 1,54 rad/s (environ 90° par seconde) sur un matelas pneumatique et démontrait cette adaptabilité rapide même dans la situation où le terrain devenait soudainement mou.

L’équipe de recherche a démontré l’importance de fournir une expérience de contact appropriée pendant le processus d’apprentissage par rapport à un contrôleur qui supposait que le sol était rigide, et a prouvé que le réseau neuronal récurrent proposé modifiait la méthode de marche du contrôleur en fonction des propriétés du sol.

La méthodologie de simulation et d’apprentissage développée par l’équipe de recherche devrait contribuer à ce que les robots effectuent des tâches pratiques en élargissant la gamme de terrains sur lesquels divers robots marcheurs peuvent fonctionner.

Le premier auteur, Suyoung Choi, a déclaré: « Il a été démontré que fournir à un contrôleur basé sur l’apprentissage une expérience de contact étroit avec un sol déformant réel est essentiel pour une application sur un terrain déformant. » Il a ajouté que « le contrôleur proposé peut être utilisé sans information préalable sur le terrain, il peut donc être appliqué à diverses études de marche de robots ».

Fourni par le Korea Advanced Institute of Science and Technology (KAIST)