le plus grand incubateur de startups au monde
Ces dernières années, NVIDIA est passée du statut d’entreprise de matériel de jeu qui faisait des choses intéressantes dans le domaine de l’intelligence artificielle à celui de ciment de l’ensemble de l’industrie de l’IA. Et il y est parvenu grâce à sa puissance graphique, mais aussi grâce à ses poches profondes et à une vision très claire : devenir le plus grand incubateur d’IA au monde. Même si, pour certains, c’est devenu un partenaire inconfortable.
On ne peut pas parler d’IA sans parler de NVIDIA, mais en cours de route, elle a réalisé autre chose : transformer ses principaux alliés en rivaux.
NVentures. Il y a quelques années, Jensen Huang, directeur de NVIDIA, s’est rendu compte d’une chose : l’IA devait provenir de NVIDIA, sinon elle n’appartiendrait à personne. Le PDG a identifié la nécessité de devenir investisseur, mais aussi le point d’appui technique pour les startups qui commençaient à acheter bon nombre de ses puces pour la formation en IA. Des années auparavant, NVIDIA avait Inception, une branche axée sur le support non financier, mais en 2022, elle a lancé NVentures.
Il s’agit de la branche de capital-risque d’entreprise de l’entreprise et est née à l’aube de l’IA générative que nous connaissons aujourd’hui. En fait, il a été lancé quelques mois avant le lancement public de ChatGPT, ce qui a précisément popularisé l’utilisation massive des GPU NVIDIA pour entraîner des modèles à grande échelle.
Si avec Inception plus de 19 000 startups d’IA ont suivi le programme de conseil (avec formation, crédits cloud et réductions sur les achats massifs de GPU, mais sans investissement direct), avec NVentures, les choses ont également rapidement dégénéré. D’un investissement direct en 2022, ils sont passés à 30 en 2023, 54 en 2024 et 67 en 2025. Certains sont plus importants que d’autres, mais tous sont des investissements de plusieurs dizaines de millions de dollars qui ont servi à dynamiser l’écosystème actuel dans une sorte d’économie circulaire.
Pensez-vous que je suis une banque ? Cet article de Techcruch présente parfaitement les investissements et les sépare en « clubs ». Il y a celui de 100 millions avec des sociétés comme Ayar Labs, Hippocratic AI, Kore.ai ou Runway qui ont reçu plus de 100 millions de dollars. Celui de centaines de millions avec Cohere, Commonwealth Fusion, Perplexity, Lambda ou Black Forest Labs comme exposants. Et puis le club du milliard de dollars. Dans ce sac se trouvent des grands noms tels que Cursor, xAI, le French Mistral, Reflection AI, Thinking Machines Lab, Figure AI ou encore Scale AI. Egalement deux partenaires inconfortables : OpenAI et Anthropic.
La relation entre OpenAI et NVIDIA est longue et symbiotique. Tous deux se sont entraidés pour se placer sur la carte de l’IA générative, mais NVIDIA va fermer le robinet. Récemment, Huang lui-même a déclaré qu’ils investiraient 30 milliards dans OpenAI, ou… et que les deux méga-opérations seraient probablement les dernières. Les deux sociétés devraient entrer en bourse plus tard cette année et devront donc commencer à se débrouiller seules.
Redressement des affaires. Cela ne signifie pas que NVIDIA va arrêter d’injecter de l’argent, cela implique simplement qu’ils vont allouer cet argent à plus d’endroits en même temps. Au lieu de montants aussi importants, davantage de financement pour des entreprises plus « modestes » dans les domaines des modèles, des logiciels, des infrastructures, de la robotique, du cloud et même de la conduite autonome et de la biotechnologie, afin de continuer à étendre le réseau d’entreprises qui évoluent sur leur plateforme. En fait, cet investissement dans des petites entreprises qui commencent à croître est très lucratif.
Un exemple est le cycle de financement Reflection. Sur les 2 milliards de dollars levés par la société, 800 millions de dollars provenaient des poches de NVIDIA, et une grande partie de cet argent, ainsi que les intérêts, reviendra dans ses poches. NVIDIA est si important que l’entreprise souligne que « lorsque vous lui parlez, vous parlez à NVIDIA ». Cette dépendance à l’égard de NVIDIA est ce qui fait de l’entreprise un partenaire inconfortable car elle dispose d’un pouvoir énorme.
Inférence. Mais l’autre tournant ne vient pas tant de NVIDIA que de l’industrie elle-même. Ces dernières années, nous nous sommes concentrés sur la formation. Des puces de plus en plus puissantes pour alimenter des centres de données de plus en plus grands dans lesquels sont formés des modèles de plus en plus performants. Cependant, une fois formé, le modèle doit être utile à quelque chose, et c’est là que l’inférence entre en jeu.
Car on estime que la grande croissance du futur de l’IA ne sera pas tant la formation du prochain ChatGPT, mais la capacité à gérer des milliards de requêtes d’IA à moindre coût et efficacement. Cela implique qu’il doit y avoir des puces plus spécialisées avec des architectures différentes qu’un GPU d’entraînement classique. Les analystes soulignent déjà que la vitesse à laquelle le besoin d’inférence augmente est plus rapide que prévu.

Des amants aux ennemis. Et c’est là que d’autres entreprises entrent en jeu. D’une part, des rivaux classiques comme Huawei dotés d’équipements à la fois pour la formation et l’inférence. Également un AMD qui gagne des contacts comme Samsung pour créer des GPU de formation et des CPU d’inférence. Intel, Amazon et Google possèdent également leurs propres puces. Mais les plus gros clients de NVIDIA ne veulent pas que NVIDIA dicte leur avenir.
OpenAI travaille avec Broadcom pour développer ses propres puces qui pourraient se concentrer sur cette inférence, et Tesla et xAI (qui font désormais partie de SpaceX) ont également emprunté le même chemin. Les deux sociétés ont eu besoin de NVIDIA jusqu’à présent, mais elles ne veulent pas en dépendre pour déduire qu’il pourrait y avoir plus de marge bénéficiaire. Car l’idée est de créer des puces très spécialisées dans la gestion des requêtes pour baisser au maximum le coût de l’IA.
La Chine en est un exemple. Les grandes entreprises technologiques et les startups du pays se sont concentrées sur une seule chose : former des modèles spécialisés et rendre l’inférence si bon marché que l’utilisateur n’hésite pas à payer. Certains soulignent déjà que 80 % du coût de l’IA à court terme sera dû à l’inférence et que des solutions sont nécessaires.

L’as dans le trou. Mais si presque tous les alliés préparent depuis quelques temps leur deck pour ne plus dépendre des cartes NVIDIA, NVIDIA a également fait le calcul et garde l’atout dans sa manche. C’est encore une fois lié à l’argent et, plus précisément, à la licence Groq. Cette société a beaucoup attiré l’attention il y a quelques années car elle était spécialisée dans la création de puces d’inférence extrêmement efficaces.
NVIDIA s’en est rendu compte et n’a pas acheté Groq directement, mais a concédé sous licence sa technologie pour 20 milliards de dollars pour créer ses propres solutions, des solutions avec lesquelles attaquer le marché de l’inférence, faire croire à ceux qui créent actuellement des alternatives que, encore une fois, il vaut mieux les acheter à NVIDIA et, surtout, entrer sur le marché chinois. Un marché que Huang estime à 50 milliards de dollars.
À Simseo | Le point marquant de ChatGPT n’est pas d’être une bonne IA : elle est devenue l’une des plus grandes accroches de l’histoire
