Lorsque vous êtes ouvert et que vous ne pouvez pas acheter suffisamment de GPU, la solution est évidente: fabriquer le vôtre

Lorsque vous êtes ouvert et que vous ne pouvez pas acheter suffisamment de GPU, la solution est évidente: fabriquer le vôtre

Openai créera ses propres puces d'intelligence artificielle. C'est une décision cruciale pour l'avenir de votre entreprise, mais l'allié que vous avez choisi de le faire: Broadcom.

Quand la rivière sonne. Le Runrún écoute depuis le début de 2024. Nvidia, propriétaire et dame du segment des accélérateurs de l'IA, était un allié trop puissant pour Openai. La solution était claire: développer ses propres puces pour minimiser cette dépendance.

Broadcom prend la poitrine. Hier Tan, PDG de Broadcom, a déclaré hier aux investisseurs que la société avait conclu un accord avec un mystérieux client qui investirait 10 000 millions de dollars dans les puces d'IA. Bien que Broadcom n'ait pas révélé le nom du client, des sources proches de ces accords ont indiqué dans Financial Times que ce client n'est autre que OpenAI. Ni Broadcom ni cette dernière entreprise n'ont confirmé les données, mais les données suggèrent que cette puce sera prête à faire ses débuts en 2026.

Xpus au pouvoir. Ces puces, à ceux qui ont appelé XPU, sont une sorte de variante spécialisée et personnalisée des accélérateurs NVIDIA ou AMD. Nous avons l'exemple parfait dans les TPU (unités de processeur tendeur) que Google a présenté il y a près d'une décennie et qui a amélioré la génération après la génération (nous allons déjà pour la septième génération, appelée Ironwood). Soit dit en passant, Broadcom a collaboré au développement de ces puces Google, il a donc une expérience en retard dans ce domaine.

Propres puces à usage interne. Selon des sources proches de cette collaboration, OpenAI vise à utiliser ces puces AI internes, et il n'est pas prévu de les offrir à des clients externes. Cela renforce la théorie selon laquelle OpenAI veut créer des centres de données avec ces propres puces pour éviter (ou du moins atténuer) la dépendance de Nvidia.

Nvidia aura (beaucoup) de compétition. Nvidia domine ce segment avec Iron Fist, mais les rivaux – à la fois en Occident comme à l'est – ont travaillé pour faire disparaître leur monopole dans ce secteur. Microsoft a Maia, Amazon son Trainium, Google son TPU susmentionné et AMD bien sûr son instinct. Jusqu'à ce que l'objectif soit dedans.

Mais Cuda reste le « fossé » de Nvidia. Bien sûr, la véritable clé du succès écrasant de Nvidia n'est pas tant dans ses puces et sur le fait que son architecture CUDA est de facto standard sur ce marché et tous les développeurs de systèmes d'IA basent généralement leurs projets sur cette plate-forme. C'est le « fossé » de Nvidia, cette « fosse » qui vous permet de protéger son « château » des rivaux et de continuer à dominer le marché. Et ici, il y a aussi des tentatives d'éviter la dépendance de l'entreprise, et parmi lesquelles celles de la Chine se démarquent.

Et tsmc, quoi? Ce qui est drôle, c'est que pendant des mois, il semblait que l'allié qu'Openai avait cherché à réaliser ce projet était le fabricant de semi-conducteurs le plus important au monde, TSMC. Plus tôt cette année, cette collaboration semblait être sur la bonne voie et plusieurs sources ont souligné que nous aurions les premiers GPU OpenAI pour 2026. Il a peut-être simplement choisi d'avoir un plan B (TSMC) pour éviter sa dépendance à Nvidia, mais également préparer un plan C (Broadcom).

Image | Qualcomm

Dans Simseo | Le test d'auto-tension de la Chine dans les puces pour l'IA est déjà là: il n'a pas acheté NVIDIA ou un seul GPU H20 au dernier trimestre