Nvidia Alpamayo-R1

Nvidia Alpamayo-R1, le modèle de voiture autonome qui pense comme un humain

Pendant la conférence NeurIPS 2025à San Diego, Nvidia a annoncé son nouveau modèle open source pour la recherche sur les véhicules autonomes : Alpamayo-R1, décrit comme «le premier modèle industriel de raisonnement ouvert vision-langage-action (VLA) pour la mobilité».
Ce modèle permet aux véhicules de combiner vision et langage : il peut analyser l’environnement visuel, le décrire en termes compréhensibles et raisonner sur les actions à entreprendre, comme le ferait un humain.


Des modèles de base à la conduite autonome

Alpamayo-R1 est basé sur Raison du cosmosqui fait partie de la famille de modèles ouverts Nvidia Cosmos, conçus pour ce qu'on appelle « l'IA physique », c'est-à-dire les systèmes d'IA qui fonctionnent dans le monde réel, tels que les robots et les véhicules.
La plateforme Cosmoslancé en 2025, propose des modèles prédéfinis, des outils de génération de données synthétiques, des simulations et des pipelines de formation pour aider les développeurs et les chercheurs.
De plus, Cosmos Reason est capable de raisonner sur des séquences vidéo, de comprendre la dynamique physique, de prédire les interactions et de décider des comportements : une base fondamentale pour des robots et des véhicules capables de s'adapter à des environnements complexes.


Vers une autonomie de « niveau 4 » et des « décisions de bon sens »

Selon Nvidia, des technologies comme Alpamayo-R1 sont cruciales pour atteindre le niveau d'autonomie 4, c'est-à-dire des véhicules capables de fonctionner de manière totalement autonome dans une zone définie et dans des conditions spécifiques.
La valeur ajoutée réside dans la capacité de « réfléchir » avant d’agir : grâce au raisonnement en plusieurs étapes, l’IA peut aborder des décisions complexes – comme l’interprétation des mouvements des piétons, des pistes cyclables, des interactions inattendues – avec une sorte de « bon sens ».
De plus, en rendant le modèle et les outils open source (disponibles sur GitHub et Hugging Face), Nvidia invite la communauté des chercheurs à collaborer, expérimenter et améliorer la technologie.


Outils et ressources pour les développeurs et les chercheurs

En collaboration avec Alpamayo-R1, Nvidia a publié une collection d'outils, des guides étape par étape, des flux de travail pour l'inférence et la post-formation : un package appelé Livre de recettes Cosmos. Cette boîte à outils comprend des ressources pour conserver les données, générer des données synthétiques et évaluer des modèles pour des cas d'utilisation spécifiques.
En pratique, grâce à ces ressources, même ceux qui ne partent pas d’une infrastructure propriétaire peuvent expérimenter, adapter et tester des modèles de conduite autonome ou robotisée. Cela rend l’IA physique plus accessible et favorise une plus grande transparence et collaboration dans le secteur.


Un avenir porté par l’intelligence physique

La vision de Nvidia – également partagée par d'autres experts du secteur – est que la prochaine vague d'innovation en matière d'IA ne se limitera pas aux chatbots ou aux générateurs de texte/image, mais entrera dans le monde physique : robots, voitures, véritables systèmes autonomes.
Avec Alpamayo-R1 et Cosmos, Nvidia propose une « boîte à outils » – ouverte, collaborative et puissante – qui pourrait accélérer l’entrée à grande échelle de véhicules autonomes plus intelligents, plus sûrs et plus adaptatifs.

AR1 sera disponible sur GitHub et Hugging Face, avec certaines données d'entraînement incluses dans les ensembles de données ouverts sur l'IA physique. NVIDIA a également publié AlpaSim, un framework open source pour évaluer AR1.

En savoir plus sur Alpamayo-R1