Meta TPU Google

Meta évalue les TPU de Google : changer l'équilibre de la puissance de calcul de l'IA

Meta envisage d'adopter les TPU (Tensor Processing Units) de Google dans ses centres de données à partir de 2027, avec la possibilité de louer de la capacité de calcul dès l'année prochaine. Les marchés réagissent immédiatement : Alphabet monte, Nvidia chute, Broadcom croît.

Mais derrière l’actualité quotidienne se cache un phénomène plus pertinent. Pour la première fois, Meta, l'un des plus grands investisseurs mondiaux dans les infrastructures d'IA (70 à 72 milliards de dollars de dépenses d'investissement en 2025), déclare ouvertement que la dépendance à l'égard d'un seul fournisseur de GPU n'est plus durable.

C’est le début d’une nouvelle phase : la guerre informatique, dans laquelle ce n’est pas celui qui possède le modèle le plus performant qui gagne, mais celui qui contrôle l’énergie de calcul nécessaire pour le générer, le mettre à jour et le faire fonctionner à l’échelle mondiale.

Parce que Meta s'intéresse sérieusement aux TPU

Les TPU sont des puces d'IA spécialisées conçues par Google et produites en partenariat avec Broadcom. Ils sont nés en 2018 comme accélérateurs de services cloud internes, mais se sont transformés au fil des années en une plateforme complète : architecture, logiciels, réseau, orchestration, intégration verticale avec le cloud de Google.

La raison de l’intérêt de Meta n’est pas seulement technologique. C'est bon marché.
Le coût des modèles de pré-formation a augmenté de façon exponentielle. Les modèles pionniers de nouvelle génération nécessiteront des investissements de plusieurs milliards de dollars par phase de formation. Si la disponibilité des GPU devient irrégulière ou si le prix continue d’augmenter, l’évolutivité de l’ensemble du secteur est menacée.

Les TPU offrent une alternative coût-performance très compétitive, en particulier lorsqu'ils sont utilisés au sein du réseau haute capacité de Google. Pour Meta, même une réduction de 10 à 15 % du coût par FLOP signifie des économies de centaines de millions de dollars par an.

La valeur de l’intégration verticale

Par rapport aux GPU Nvidia, les TPU font partie d'une pile intégrée qui comprend :

  • architecture matérielle optimisée pour la formation des transformateurs ;
  • systèmes d'interconnexion dédiés;
  • des compilateurs spécifiques pour réduire les inefficacités de calcul ;
  • gestion de cluster et équilibrage de charge intégrés à la plateforme cloud.

Pour un acteur comme Meta, qui a besoin de gérer des modèles multimodaux à grande échelle, la possibilité d'accéder à un pipeline déjà optimisé permet de travailler avec une plus grande prévisibilité.
La concurrence ne se joue plus uniquement sur des benchmarks de modèles, mais sur la maturité des infrastructures.

Méta TPU Google

Les mouvements de stocks comme indicateurs avancés

L’impact immédiat sur les actions raconte une autre histoire. Nvidia perd du terrain, Alphabet augmente sa capitalisation et se rapproche du seuil des 4 000 milliards de dollars (à l'heure où nous écrivons ces lignes). Broadcom poursuit une performance positive amorcée avant la nouvelle.

Ces signaux ne proviennent pas d'une simple curiosité quant au choix d'un client, mais de la reconnaissance du fait que la demande de puces d'IA ne sera plus confinée à un seul fournisseur.
Les investisseurs commencent à faire la distinction entre :

  • qui fournit la puissance de calcul ;
  • qui contrôle la chaîne de production ;
  • qui peut proposer des solutions intégrées, plus efficaces et plus stables.

La monoculture GPU n’est pas encore en crise, mais elle perd son aura d’inévitabilité.

Le mémo d'Altman et la prise de conscience d'un nouveau cycle industriel

La note interne de Sam Altman du 24 février 2025 confirme la tension croissante : les progrès de Google pourraient créer des « vents contraires économiques temporaires » pour OpenAI.

C'est une phrase qui montre un changement de perspective. La concurrence entre OpenAI et Google ne porte plus seulement sur la qualité des modèles, mais sur la capacité à les former rapidement, sans goulots d'étranglement et sans coûts excessifs.

Google possède un avantage rare : il contrôle la quasi-totalité de la chaîne de calcul.
Il conçoit les puces, les optimise dans son cloud, utilise des architectures propriétaires, dispose d'un logiciel d'orchestration natif et dispose d'une infrastructure électrique et de centre de données capable d'absorber la croissance exponentielle de la demande.
Pour OpenAI, sans une infrastructure entièrement propriétaire, la concurrence devient également un défi en matière d’approvisionnement.

Les hyperscalers réécrivent la géographie de l’informatique

Il n'y a pas que Google. Tous les grands acteurs élaborent leur propre stratégie d’infrastructure :

  • Amazon accélère sur Trainium et Inferentia, intégrés à AWS comme alternative évolutive aux GPU ;
  • Microsoft présente ses puces « Athena », pour réduire la dépendance à l'égard de Nvidia et améliorer les performances et les marges ;
  • Tesla investit dans Dojo, une plateforme conçue pour la formation massive de réseaux de vision par ordinateur ;
  • Cerebras propose une architecture complètement différente, basée sur de gigantesques wafers conçus pour l'entraînement parallèle ;
  • Meta, déjà auteur de la puce MTIA pour l'inférence, étudie désormais une alternative externe pour la formation.

Il en résulte un écosystème beaucoup plus fragmenté et compétitif, qui brise une dynamique consolidée : celle de Nvidia comme seul standard industriel.

Pourquoi la monoculture du GPU n'est plus durable

Les GPU ont rendu possible la révolution de l’IA générative. Ils nous ont permis de mettre à l’échelle des milliards de paramètres, de former des modèles multimodaux et d’accélérer la recherche.
Mais leur centralité a créé deux problèmes critiques :

  • coût en constante augmentation : les clusters H100 et H200 ont des prix élevés en CapEx et OpEx ;
  • dépendance au rythme de production d’un seul fournisseur : tout ralentissement ou augmentation de la demande produit des chocs de disponibilité et de prix.

Aujourd’hui, la diversification n’est pas une option, mais une nécessité stratégique.
Aucune entreprise, pas même les grandes technologies, ne peut fonder ses projets sur l’hypothèse qu’un seul fournisseur produit des puces de plus en plus performantes, toujours disponibles et à des prix stables.

Méta TPU GoogleMéta TPU Google

Un nouvel oligopole informatique est né

Le marché entre dans une phase dans laquelle la valeur se déplace non seulement vers les performances des modèles, mais aussi vers la structure industrielle qui les soutient.
Un nouvel oligopole informatique émerge, composé d’acteurs capables de contrôler simultanément trois éléments :

  1. conception de puces ;
  2. infrastructure cloud et centres de données ;
  3. écosystème logiciel et modèles propriétaires.

Ceux qui possèdent ces trois niveaux ne se contentent pas de vendre des services : ils définissent la norme opérationnelle sur laquelle seront construites les futures applications d’IA.

Les implications pour les entreprises

Pour ceux qui conduisent la transformation numérique, cette évolution change fondamentalement l’approche de l’adoption de l’intelligence artificielle :

  • planification des coûts de calcul : non plus réactive, mais partie intégrante de la stratégie produit et d'innovation ;
  • analyse des dépendances : comprendre dans quelle mesure l'entreprise est exposée à un seul fournisseur ou à un seul type d'architecture ;
  • évaluation des alternatives : envisager des puces spécialisées, des modèles multi-cloud, plus efficaces ;
  • intégration entre IA et stratégie cloud : ce sont aujourd’hui deux aspects indissociables.

Dans la prochaine phase de l’IA, la question ne sera pas « quel modèle utiliser », mais « quel est le coût marginal de mon calcul et dans quelle mesure je dépends de celui qui le produit ».

De la course aux modèles à la course au calcul

La phase 2022-2024 de l’IA a été dominée par l’accent mis sur les modèles génératifs.
La phase 2025-2027 sera dominée par la concurrence pour l’informatique.

La méta qui s'intéresse aux TPU de Google est un signe de cette transition : une transition qui concerne les infrastructures, l'économie, les chaînes de production et la gouvernance technologique.

L’IA n’est plus seulement un ensemble de modèles intelligents. Il s’agit d’un écosystème industriel qui nécessite une énergie, des puces, des centres de données et une orchestration à l’échelle mondiale.
Celui qui contrôle ces éléments définira non seulement la vitesse de l’innovation, mais aussi l’orientation même de la concurrence.