On sait déjà combien de puces Microsoft, Meta ou Tesla ont achetées à NVIDIA en 2024. Un non-sens absolu

On sait déjà combien de puces Microsoft, Meta ou Tesla ont achetées à NVIDIA en 2024. Un non-sens absolu

NVIDIA est devenue riche en 2024. L'entreprise de Jensen Huang domine impérialement le secteur des puces d'intelligence artificielle, et a fait dépendre tous les géants de la technologie. Du moins pour l’instant, car les choses pourraient changer en 2025.

Microsoft achète deux fois plus que ses concurrents. Les données du cabinet de conseil en technologie Omdia citées dans le Financial Times révèlent que Microsoft est de loin le plus gros client de NVIDIA aux États-Unis. En 2024, elle a acheté 485 000 de ses puces à architecture Hopper (H100, GH200), soit plus du double de ce que Meta a acheté, par exemple, avec 224 000.

Wjakr Nbsp Microsoft a acheté des puces MS à Nvidia plus que quiconque

Mais bien sûr, OpenAI est OpenAI. Il est très probable que l'investissement de Microsoft soit dû en grande partie à son propre investissement de 13 milliards de dollars dans OpenAI. La créatrice de ChatGPT est la grande référence en matière de modèles d'IA, ce qui signifie qu'elle a également besoin de nombreuses ressources que « Microsoft lui prête ». L'achat massif de puces Redmond répond non seulement à la voracité d'OpenAI, mais aussi au fait qu'ils ont besoin de ces ressources pour Copilot dans toutes ses versions.

Nous avons calculé combien d’argent les Big Tech dépensent en centres de données pour l’IA. Les chiffres donnent le vertige

Gardez un œil sur la Big Tech chinoise. Même si la guerre commerciale empêche les géants chinois de la technologie d'acquérir les puces les plus avancées de NVIDIA – du moins en grande quantité -, des sociétés comme ByteDance et Tencent ont également été des clients très importants en 2024, et ont acquis quelque 230 000 puces d'IA, dont le modèle H20, quelque peu moins puissant que le H100. Amazon a acheté 196 000 de ces puces, tandis que Google en a acheté 169 000 selon les données d'Omdia. Pour estimer ces chiffres, Omdia analyse les dépenses en capital de ces entreprises, les livraisons de serveurs et les données sur les canaux et les fournisseurs.

Wkgnp AI War stimule les dépenses dans les centres de données
Wkgnp AI War stimule les dépenses dans les centres de données

Des centres de données au pouvoir. L’autre donnée révélatrice de l’étude Omdia concerne les dépenses en serveurs. En 2024, les entreprises technologiques ont dépensé 229 milliards de dollars dans le monde, Microsoft (31 000) et Amazon (26 000) étant les principaux protagonistes. Les 10 entreprises qui ont le plus dépensé dans ce domaine représentent 60 % des investissements dans les datacenters en 2024. Voici deux entreprises récentes qui ont également beaucoup investi. Le premier est xAI, d'Elon Musk. Le second, CoreWeave, qui « loue » des GPU aux développeurs d’IA, même s’il a commencé par proposer des GPU aux mineurs de cryptomonnaies.

NVIDIA partout. Et attention, car selon Vlad Galabov, directeur de la recherche cloud et data center chez Omdia, 43 % des dépenses en serveurs en 2024 sont allées à la même entreprise : NVIDIA. L'entreprise de Jensen Huang a sans aucun doute été la grande gagnante de l'IA… mais cela pourrait changer.

La DMLA grandit petit à petit. Bien qu'à grande distance, les puces IA d'AMD commencent également à avoir de l'importance. Meta a en fait acheté 173 000 de ses MI300, tandis que Microsoft en a acheté 96 000. La firme dirigée par Lisa Su a présenté son Instinct MI325X en octobre, et affiche une feuille de route prometteuse pour 2025.

Puces d'IA dans les centres de données
Puces d'IA dans les centres de données

Et Big Tech développe ses propres puces. Mais ce qui est encore plus important que ce décollage d’AMD, c’est l’investissement croissant et l’utilisation de ses propres puces par les Big Tech pour leurs centres de données et leurs modèles d’IA.

  • Google développe depuis une décennie ses propres TPU ou « Tensor Processing Units » et les utilise massivement dans ses centres de données, même s'il n'existe pas de chiffres concrets sur leur déploiement.
  • Meta a lancé ses premières puces de formation et d'inférence à la fin de l'année dernière et a déjà déployé 1,5 million de ces puces pour ses modèles d'IA.
  • Amazon investit beaucoup d'argent dans ses puces Trainium et Inferentia et a en fait déployé 1,3 million de ces puces dans ses centres de données. Son investissement dans Anthropic comprend la création d'un nouveau cluster avec des centaines de milliers de ses puces Trainium de nouvelle génération.
  • Apple a également choisi Amazon comme partenaire au lieu de NVIDIA, ce qui a agréablement surpris l'entreprise d'Andy Jassy.
  • Microsoft travaille également toujours à « devenir indépendant » de NVIDIA, même si pour l'instant il n'a déployé que 200 000 de ses propres puces Maia AI.

À Simseo | Microsoft est le grand bénéficiaire de la faiblesse d’OpenAI. Le problème c'est qu'il en a aussi besoin fort