Comment l'IA améliore les simulations grâce à des techniques d'échantillonnage plus intelligentes
Imaginez que vous soyez chargé d'envoyer une équipe de joueurs de football sur un terrain pour évaluer l'état du gazon (une tâche probable pour eux, bien sûr). Si vous choisissez leurs positions au hasard, ils pourraient se regrouper dans certaines zones et en négliger complètement d’autres. Mais si vous leur donnez une stratégie, comme une répartition uniforme sur tout le champ, vous pourriez obtenir une image beaucoup plus précise de l’état de l’herbe.
Imaginez maintenant que vous deviez vous étendre non seulement sur deux dimensions, mais sur des dizaines, voire des centaines. C'est le défi que les chercheurs du MIT CSAIL doivent relever. Ils ont développé une approche basée sur l'IA pour « l'échantillonnage à faible divergence », une méthode qui améliore la précision de la simulation en distribuant plus uniformément les points de données dans l'espace.
Une nouveauté clé réside dans l'utilisation des réseaux de neurones graphiques (GNN), qui permettent aux points de « communiquer » et de s'auto-optimiser pour une meilleure uniformité. Leur approche marque une amélioration cruciale pour les simulations dans des domaines tels que la robotique, la finance et la science informatique, en particulier dans la gestion de problèmes complexes et multidimensionnels essentiels à des simulations et des calculs numériques précis.
« Dans de nombreux problèmes, plus vous pouvez répartir les points de manière uniforme, plus vous pouvez simuler avec précision des systèmes complexes », explique T. Konstantin Rusch, auteur principal du nouvel article et associé postdoctoral au MIT CSAIL. « Nous avons développé une méthode appelée Message-Passing Monte Carlo (MPMC) pour générer des points uniformément espacés, à l'aide de techniques d'apprentissage géométrique profond.
« Cela nous permet en outre de générer des points qui mettent l'accent sur des dimensions particulièrement importantes pour un problème à résoudre, une propriété très importante dans de nombreuses applications. Les réseaux de neurones graphiques sous-jacents au modèle permettent aux points de « parler » entre eux, obtenant ainsi de bien meilleurs résultats. uniformité que les méthodes précédentes.
Leurs travaux seront publiés dans le numéro de septembre du Actes de l'Académie nationale des sciences.
Emmène-moi à Monte-Carlo
L'idée des méthodes de Monte Carlo est d'en apprendre davantage sur un système en le simulant avec un échantillonnage aléatoire. L'échantillonnage est la sélection d'un sous-ensemble d'une population pour estimer les caractéristiques de l'ensemble de la population. Historiquement, il était déjà utilisé au XVIIIe siècle, lorsque le mathématicien Pierre-Simon Laplace l'utilisait pour estimer la population de la France sans avoir à compter chaque individu.
Les séquences à faible divergence, qui sont des séquences à faible divergence, c'est-à-dire à haute uniformité, telles que Sobol, Halton et Niederreiter, ont longtemps été la référence en matière d'échantillonnage quasi aléatoire, qui échange l'échantillonnage aléatoire avec un échantillonnage à faible divergence. Ils sont largement utilisés dans des domaines tels que l'infographie et la finance informatique, depuis les options de tarification jusqu'à l'évaluation des risques, où le fait de remplir uniformément les espaces avec des points peut conduire à des résultats plus précis.
Le cadre MPMC proposé par l’équipe transforme des échantillons aléatoires en points présentant une grande uniformité. Cela se fait en traitant les échantillons aléatoires avec un GNN qui minimise une mesure de divergence spécifique.
L’un des principaux défis liés à l’utilisation de l’IA pour générer des points hautement uniformes est que la manière habituelle de mesurer l’uniformité des points est très lente à calculer et difficile à utiliser. Pour résoudre ce problème, l’équipe a opté pour une mesure d’uniformité plus rapide et plus flexible appelée écart L2.
Pour les problèmes de grande dimension, pour lesquels cette méthode ne suffit pas à elle seule, ils utilisent une nouvelle technique qui se concentre sur d’importantes projections de points de moindre dimension. De cette façon, ils peuvent créer des ensembles de points mieux adaptés à des applications spécifiques.
Les implications s’étendent bien au-delà du monde universitaire, affirme l’équipe. En finance computationnelle, par exemple, les simulations dépendent fortement de la qualité des points d’échantillonnage.
« Avec ce type de méthodes, les points aléatoires sont souvent inefficaces, mais nos points à faible écart générés par GNN conduisent à une plus grande précision », explique Rusch. « Par exemple, nous avons considéré un problème classique de finance informatique en 32 dimensions, où nos points MPMC battent les précédentes méthodes d'échantillonnage quasi-aléatoire de pointe d'un facteur de 4 à 24. »
Des robots à Monte-Carlo
En robotique, la planification des trajectoires et des mouvements s'appuie souvent sur des algorithmes basés sur l'échantillonnage, qui guident les robots tout au long des processus de prise de décision en temps réel. L'uniformité améliorée du MPMC pourrait conduire à une navigation robotique plus efficace et à des adaptations en temps réel pour des choses comme la conduite autonome ou la technologie des drones.
« En fait, dans une récente prépublication, nous avons démontré que nos points MPMC sont quatre fois plus performants que les méthodes précédentes à faible écart lorsqu'ils sont appliqués à des problèmes réels de planification de mouvements robotiques », explique Rusch.
« Les séquences traditionnelles à faible écart constituaient une avancée majeure à leur époque, mais le monde est devenu plus complexe et les problèmes que nous résolvons désormais existent souvent dans des espaces à 10, 20 ou même 100 dimensions », explique Daniela Rus, CSAIL. directeur et professeur de génie électrique et informatique (EECS).
« Nous avions besoin de quelque chose de plus intelligent, quelque chose qui s'adapte à mesure que la dimensionnalité augmente. Les GNN représentent un changement de paradigme dans la façon dont nous générons des ensembles de points à faible écart. Contrairement aux méthodes traditionnelles, où les points sont générés indépendamment, les GNN permettent aux points de « discuter » entre eux. le réseau apprend à placer les points de manière à réduire le regroupement et les écarts, problèmes courants avec les approches typiques.