Le système d'apprentissage en profondeur enseigne les robots doux et bio-inspirés pour se déplacer en utilisant une seule caméra

Le système d'apprentissage en profondeur enseigne les robots doux et bio-inspirés pour se déplacer en utilisant une seule caméra

Les robots conventionnels, comme ceux utilisés dans l'industrie et les environnements dangereux, sont faciles à modéliser et à contrôler, mais sont trop rigides pour fonctionner dans des espaces confinés et un terrain inégal. Les robots doux et bio-inspirés sont bien meilleurs pour s'adapter à leur environnement et leurs manœuvres dans des endroits autrement inaccessibles.

Ces capacités plus flexibles, cependant, nécessiteraient normalement une gamme de capteurs embarqués et de modèles spatiaux adaptés de manière unique pour chaque conception de robot individuelle.

Prenant une approche nouvelle et moins exigeante des ressources, une équipe de chercheurs du MIT a développé un système de contrôle d'apprentissage en profondeur beaucoup moins complexe qui enseigne des robots doux et bio-inspirés pour déplacer et suivre les commandes d'une seule image.

Leurs résultats sont publiés dans la revue Nature.

En formant un réseau neuronal profond sur deux à trois heures de vue multi-visualités de divers robots exécutant des commandes aléatoires, les chercheurs ont formé le réseau pour reconstruire à la fois la forme et la gamme de mobilité d'un robot à partir d'une seule image.

Les conceptions précédentes de contrôle d'apprentissage automatique nécessitaient une personnalisation experte et des systèmes de capture de mouvement coûteux. Ce manque de système de contrôle à usage général a limité leurs applications et a rendu le prototypage rapide beaucoup moins pratique.

« Notre méthode désactive la conception matérielle des robots de notre capacité à les modéliser manuellement, ce qui a dicté la fabrication de précision, des matériaux coûteux, des capacités de détection étendues et une dépendance à des blocs de construction rigides conventionnels », notent les chercheurs dans leur article.

La nouvelle approche d'apprentissage machine à caméra unique a permis un contrôle de haute précision dans des tests sur une variété de systèmes robotiques, y compris une main pneumatique imprimée en 3D, un poignet axétique doux, une main allegro 16-DOF et un bras de robot de pavot à faible coût.

Ces tests ont réussi à atteindre moins de trois degrés d'erreur dans le mouvement conjoint et moins de 4 millimètres (environ 0,15 pouces) d'erreur dans le contrôle du bout des doigts. Le système a également pu compenser la motion du robot et les modifications de l'environnement environnant.

« Ce travail indique un passage de la programmation des robots aux robots enseignants », note le doctorat. Étudiant Sizhe Lester Li dans une fonctionnalité Web du MIT.

« Aujourd'hui, de nombreuses tâches robotiques nécessitent une ingénierie et un codage étendus. À l'avenir, nous envisageons de montrer un robot quoi faire et de le laisser apprendre à atteindre l'objectif de manière autonome. »

Étant donné que ce système repose sur la seule vision, elle peut ne pas convenir à des tâches plus agiles nécessitant la détection de contact et la manipulation tactile. Ses performances peuvent également se dégrader dans les cas où les indices visuels sont insuffisants.

Les chercheurs suggèrent que l'ajout de captiles et d'autres capteurs pourrait permettre aux robots d'effectuer des tâches plus complexes. Il est également possible d'automatiser le contrôle d'une gamme plus large de robots, y compris ceux avec des capteurs minimaux ou non intégrés.

Écrit pour vous par notre auteur Charles Blue, édité par Sadie Harley, et vérifié et révisé par Robert Egan – cet article est le résultat d'un travail humain soigneux. Nous comptons sur des lecteurs comme vous pour garder le journalisme scientifique indépendant en vie. Si ce rapport vous importe, veuillez considérer un don (surtout mensuel). Vous obtiendrez un sans publicité compte comme un remerciement.