Créer et vérifier de manière rigoureuse et flexible des systèmes robotiques stables contrôlés par l'IA

Créer et vérifier de manière rigoureuse et flexible des systèmes robotiques stables contrôlés par l'IA

Les réseaux neuronaux ont eu un impact considérable sur la façon dont les ingénieurs conçoivent les contrôleurs pour les robots, en favorisant des machines plus adaptatives et plus efficaces. Pourtant, ces systèmes d’apprentissage automatique de type cérébral sont une arme à double tranchant : leur complexité les rend puissants, mais il est également difficile de garantir qu’un robot alimenté par un réseau neuronal accomplira sa tâche en toute sécurité.

La méthode traditionnelle de vérification de la sécurité et de la stabilité consiste à utiliser des techniques appelées fonctions de Lyapunov. Si vous parvenez à trouver une fonction de Lyapunov dont la valeur diminue de manière constante, vous pouvez alors savoir que les situations dangereuses ou instables associées à des valeurs plus élevées ne se produiront jamais. Cependant, pour les robots contrôlés par des réseaux neuronaux, les approches antérieures de vérification des conditions de Lyapunov ne s'adaptaient pas bien aux machines complexes.

Des chercheurs du laboratoire d'informatique et d'intelligence artificielle du MIT (CSAIL) et d'autres laboratoires ont mis au point de nouvelles techniques permettant de certifier rigoureusement les calculs de Lyapunov dans des systèmes plus élaborés. Leur algorithme recherche et vérifie efficacement une fonction de Lyapunov, offrant ainsi une garantie de stabilité pour le système. Cette approche pourrait potentiellement permettre un déploiement plus sûr des robots et des véhicules autonomes, notamment des avions et des engins spatiaux.

Pour surpasser les algorithmes précédents, les chercheurs ont trouvé un raccourci économique dans le processus de formation et de vérification. Ils ont généré des contre-exemples moins coûteux (par exemple, des données contradictoires provenant de capteurs qui auraient pu tromper le contrôleur) et ont ensuite optimisé le système robotique pour en tenir compte.

La compréhension de ces cas limites a aidé les machines à apprendre à gérer des circonstances difficiles, ce qui leur a permis de fonctionner en toute sécurité dans une gamme de conditions plus large que possible auparavant.

Ils ont ensuite développé une nouvelle formulation de vérification qui permet l’utilisation d’un vérificateur de réseau neuronal évolutif, α,β-CROWN, pour fournir des garanties rigoureuses du pire des cas au-delà des contre-exemples.

« Nous avons vu des performances empiriques impressionnantes dans des machines contrôlées par l'IA comme les humanoïdes et les chiens robotisés, mais ces contrôleurs d'IA manquent des garanties formelles qui sont cruciales pour les systèmes critiques pour la sécurité », explique Lujie Yang, doctorant en génie électrique et informatique du MIT (EECS) et affilié au CSAIL, qui est co-auteur principal d'un nouvel article sur le projet aux côtés du chercheur du Toyota Research Institute Hongkai Dai SM '12, Ph.D. '16.

« Notre travail comble l'écart entre ce niveau de performance des contrôleurs de réseaux neuronaux et les garanties de sécurité nécessaires pour déployer des contrôleurs de réseaux neuronaux plus complexes dans le monde réel », note Yang. L'article est publié sur le site arXiv serveur de préimpression.

Pour une démonstration numérique, l'équipe a simulé la manière dont un drone quadrirotor équipé de capteurs lidar se stabiliserait dans un environnement bidimensionnel. Leur algorithme a réussi à guider le drone vers une position de vol stationnaire stable, en utilisant uniquement les informations environnementales limitées fournies par les capteurs lidar.

Dans deux autres expériences, leur approche a permis le fonctionnement stable de deux systèmes robotiques simulés dans une plus large gamme de conditions : un pendule inversé et un véhicule de suivi de trajectoire. Ces expériences, bien que modestes, sont relativement plus complexes que ce que la communauté de vérification des réseaux neuronaux aurait pu faire auparavant, notamment parce qu'elles incluaient des modèles de capteurs.

« Contrairement aux problèmes courants d'apprentissage automatique, l'utilisation rigoureuse des réseaux neuronaux comme fonctions de Lyapunov nécessite de résoudre des problèmes d'optimisation globale difficiles, et donc l'évolutivité est le principal goulot d'étranglement », explique Sicun Gao, professeur associé d'informatique et d'ingénierie à l'Université de Californie à San Diego, qui n'a pas participé à ce travail.

« Les travaux actuels apportent une contribution importante en développant des approches algorithmiques bien mieux adaptées à l'utilisation particulière des réseaux neuronaux comme fonctions de Lyapunov dans les problèmes de contrôle. Ils permettent d'obtenir une amélioration impressionnante de l'évolutivité et de la qualité des solutions par rapport aux approches existantes.

« Ces travaux ouvrent des perspectives intéressantes pour le développement ultérieur d'algorithmes d'optimisation pour les méthodes neuronales de Lyapunov et l'utilisation rigoureuse de l'apprentissage profond dans le contrôle et la robotique en général. »

L'approche de Yang et de ses collègues en matière de stabilité a un large champ d'applications potentielles dans lesquelles la garantie de sécurité est cruciale. Elle pourrait contribuer à assurer une conduite plus fluide pour les véhicules autonomes, comme les avions et les engins spatiaux. De même, un drone livrant des articles ou cartographiant différents terrains pourrait bénéficier de telles garanties de sécurité.

Les techniques développées ici sont très générales et ne sont pas spécifiques à la robotique ; les mêmes techniques pourraient potentiellement aider à d'autres applications, telles que la biomédecine et le traitement industriel, à l'avenir.

Bien que cette technique soit une amélioration par rapport aux travaux antérieurs en termes d'évolutivité, les chercheurs étudient comment elle peut être plus performante dans des systèmes de plus grandes dimensions. Ils aimeraient également prendre en compte des données au-delà des relevés lidar, comme des images et des nuages ​​de points.

L'équipe souhaite par ailleurs offrir les mêmes garanties de stabilité aux systèmes qui évoluent dans des environnements incertains et sujets à des perturbations. Par exemple, si un drone est confronté à une forte rafale de vent, Yang et ses collègues veulent s'assurer qu'il continuera à voler de manière stable et à accomplir la tâche souhaitée.

Ils comptent également appliquer leur méthode à des problèmes d'optimisation, où l'objectif serait de minimiser le temps et la distance dont un robot a besoin pour accomplir une tâche tout en restant stable. Ils prévoient d'étendre leur technique aux humanoïdes et à d'autres machines du monde réel, où un robot doit rester stable tout en entrant en contact avec son environnement.