Foxconn est le dernier à rejoindre

Foxconn est le dernier à rejoindre

Nvidia est actuellement le client le plus gentil. C’est le ciment de l’intelligence artificielle, il investit des millions dans des startups d’IA et, bien que Big Tech tente d’être le nouveau Nvidia, la vérité est qu’ils sont actuellement les seuls à disposer du matériel nécessaire pour atteindre les objectifs des hyperscalers. Sa véritable réussite est de faire en sorte que toute la conversation tourne autour de lui et que tout le monde travaille pour vous.

Et Foxconn est le dernier à s’associer à l’avenir de Nvidia.

En bref. Nvidia prépare actuellement le lancement de Vera Rubin. Il s’agit d’une plateforme de formation et d’inférence qui regroupe le matériel de dernière génération d’entreprises telles que Samsung ou TSMC. Cependant, Jensen Huang a déjà déclaré qu’il aurait besoin de toutes les mains disponibles cette année pour atteindre ses objectifs, et c’est là qu’intervient Foxconn.

La grande (et controversée) entreprise taïwanaise a été choisie par Nvidia comme fournisseur exclusif de la chaîne d’approvisionnement des équipements nécessaires au Groq 3 LPX. Les deux sociétés travaillaient déjà ensemble, mais l’accord implique une multiplication par dix du volume de livraison prévu et, en outre, plus tôt que prévu : pour le troisième trimestre 2026.

Transformation. Cet accord met sur la table les intentions de Nvidia. Si jusqu’à récemment nous parlions de GPU comme le H200, souhaités par la Big Tech chinoise, il est maintenant temps de parler de la Vera Rubin susmentionnée. Il s’agit d’une plateforme capable d’effectuer à la fois un travail de formation et d’inférence, ce qui est de plus en plus important à l’ère de l’IA agentique. Selon Nvidia, le rack Groq 3 LPX offre des performances d’inférence 35 fois supérieures pour les modèles d’IA comportant des milliards de paramètres par rapport à la génération précédente de Blackwell.

Ce n’est pas pour rien qu’Intel transfère son activité vers les Xeons pour les centres de données et que les actions ARM ont atteint des sommets après avoir présenté son processeur pour l’IA. Foxconn concentrera ses ressources sur cette plate-forme LPX optimisée par Groq pour accélérer toute la phase critique de décodage des modèles d’IA agentique. Et, outre Groq 3 LPX, la société taïwanaise elle-même est l’un des principaux fournisseurs d’enceintes Vera Rubin NVL72. En bref : Foxconn joue actuellement en Ligue des champions.

Selon des sources industrielles, les expéditions de puces LP30 et LP35 qui utiliseront ces armoires LPX seront de 1,5 million d’ici 2026 et de 2,5 millions d’ici 2027. Au total, 6 000 racks pour cette année et 10 000 pour celui fourni uniquement avec ces puces.

Le gros client. Et ici, il y a deux faces de la médaille. D’un côté, celui de Nvidia, l’entreprise qui a trouvé un filon si riche dans l’IA qu’elle a abandonné ceux qui étaient ses principaux clients il n’y a pas si longtemps. Travailler pour Nvidia, c’est assurer des profits aussi longtemps que dure son hégémonie à l’ère de l’IA. Un exemple est Samsung, qui s’est empressé de remporter la course à la mémoire HBM4 parce qu’il savait que s’il y parvenait, il devancerait ses plus gros clients dans la course pour devenir le fournisseur de Nvidia.

Un autre exemple est TSMC lui-même. La plus grande fonderie du monde avait Apple comme principal client depuis des années. Cela garantissait qu’en cas de crise dans la chaîne d’approvisionnement, Apple savait qu’elle aurait ses puces, car l’avenir de TSMC était lié au sien. Mais maintenant, les choses ont changé et celui qui a garanti les wafers est Nvidia.

NVIDIA est l’entreprise la plus valorisée au monde car elle n’a pas de concurrence. Jusqu'à ce que Google commence à fabriquer des puces

Accumuler de gros contrats. Le revers de la médaille est que Foxconn, qui n’est pas l’un des moteurs de l’IA dans les conversations quotidiennes, remporte de gros et juteux contrats. L’un est celui mentionné exclusivement avec Nvidia, mais ils sont également fournisseurs de puces d’autres géants comme Google avec son TPU, Microsoft et Amazon AWM.

De Google, par exemple, il détient 15 % de part de marché. Et le PDG de l’entreprise, Liu Yangwei, montre la poitrine face à cette situation, soulignant qu’ils peuvent produire plus de 1 000 armoires complètes par semaine et qu’ils s’efforcent de doubler cette capacité avant la fin de l’année.

Oh, et au cas où vous vous demanderiez si cela aura un impact sur le prix de la RAM, gardez à l’esprit que chacun de ces milliers de racks fabriqués par Foxconn aura 256 puces avec 128 Go de SRAM et 12 To de mémoire DDR5. Cela permet également de comprendre pourquoi les grands noms de la mémoire arrêtent de fabriquer de la mémoire DDR4 pour se concentrer sur la DDR5. Et pourquoi les prix continueront comme ils le sont actuellement pendant plusieurs mois.

Images | Hillel Steinberg

À Simseo | Que Qualcomm prépare ses propres puces IA est une bonne nouvelle. Qu’il ait une opportunité sur le marché est une chose très différente.