Openai signe avec Samsung et SK Hynix pour une demande potentielle de 900 000 plateaux par mois. C'est une figure absurde
À Séoul, un ensemble d'accords a été fermé qui reflète jusqu'où la carrière arrive pour l'intelligence artificielle. Openai s'est assis avec Samsung et SK pour faire progresser leur projet Stargate et les entreprises ont souligné un objectif qui surprend à lui seul: 900 000 wafers DRAM par mois. Le plan, selon les parties, passe par le renforcement de la production de mémoire et l'étude de nouveaux centres de données en Corée du Sud. Tout cela a été annoncé après une série de réunions de Sam Altman, des chefs d'entreprise et du président Lee Jae-Myung lui-même.
La nomination au bureau présidentiel de Séoul a réuni Sam Altman avec les dirigeants des conglomérats technologiques asiatiques susmentionnés, en présence du président Lee Jae-Myung. Le ton a été partagé: la Corée cherche à se consolider comme l'une des trois pouvoirs mondiaux de l'intelligence artificielle et OpenAI doit ancrer son projet de Stargate dans des régions avec des muscles technologiques. Cette dentelle explique l'intérêt des deux parties à formaliser les accords qui couvrent de l'offre de mémoire à la construction de nouveaux centres de données, avec une vue à long terme.
Un objectif qui peut tendre l'ensemble du secteur de la mémoire
Lorsque nous parlons de Wafers, nous nous référons aux enregistrements en silicium qui servent de base à la fabrication de puces. De chacun, une fois le processus terminé, des dizaines ou même des centaines de circuits sont coupées qui deviennent plus tard les modules de mémoire DRAM ou les batteries HBM qui alimentent les serveurs et les centres de données.
Le volume qui a été mis sur la table est disproportionné par rapport au marché. Selon TechInsights, la capacité mondiale de production de 300 millimètres DRAM était d'environ 2,07 millions par mois en 2024 et augmenterait jusqu'à 2,25 millions en 2025. Atteindre 900 000 signifierait environ 39% de toutes ces capacités. Aucun fabricant individuel n'atteigne un tel chiffre seul, de sorte que l'ampleur de l'accord reflète à la fois l'ambition d'Openai et la pression croissante pour assurer l'approvisionnement en mémoire avancée.
Les documents signés comprennent des engagements préliminaires pour étendre la production de mémoire et évaluer les infrastructures supplémentaires en Corée du Sud. Parmi eux, la participation de Samsung SDS dans le développement de centres de données, ainsi que les industries lourdes de Samsung C&T et Samsung dans sa conception et sa construction. Le ministère des Sciences et des TIC envisage d'évaluer le site en dehors de la région métropolitaine de Séoul, et SK Telecom a signé un accord pour étudier la viabilité d'un centre dans le sud-ouest du pays. Il est également proposé d'explorer le déploiement de ChatGpt Enterprise et des capacités d'API dans les opérations d'entreprise.

Centre de données Stargate aux États-Unis
Un point clé dans tout cela est dans la différence entre l'utilisation et la formation d'un modèle. Lorsque quelqu'un consulte un chatbot, l'infrastructure d'inférence est activée, beaucoup moins exigeante. Mais pour former un système de nouvelle génération, des milliers de puces sont nécessaires en parallèle, chacune accompagnée de modules de mémoire haute performance. Cette échelle multiplie le besoin de serveurs, de systèmes de refroidissement et de puissance électrique. Dans ce contexte, garantir des centaines de milliers de plaquettes par mois ne semble pas un excès, mais un moyen de s'assurer que la prochaine vague de modèles a le soutien matériel nécessaire.
Le muscle informatique d'Openai s'appuie sur d'énormes alliances de draft. Avec Oracle et SoftBank, la société prépare cinq centres de données qui fourniraient plusieurs gigawatts de capacité. Nvidia, en revanche, a annoncé qu'elle investirait jusqu'à 100 000 millions de dollars et qu'elle donnerait accès à plus de 10 gigawatts grâce à ses systèmes de formation.


La trajectoire d'Openai n'est pas comprise sans Microsoft, son premier grand partenaire. L'engagement initial de 1 000 millions en 2019 et l'investissement ultérieur de 10 000 millions ont donné accès au cloud Azure, clé pour former les modèles qui ont favorisé Chatgpt. Au fil du temps, cependant, la compagnie de Sam Altman a commencé à réduire cette dépendance. Les derniers mouvements marquent un changement de cours vers les infrastructures dans lesquelles OpenAI a un contrôle plus direct, un moyen de s'assurer qu'ils ne sont pas conditionnés à un seul fournisseur.

Il faut se rappeler que de nombreuses publicités restent préliminaires. Les lettres d'intention et les mémorandums marquent la volonté de progresser, mais les détails spécifiques n'ont pas encore fermé. À l'échelle que Stargate augmente, les risques sont évidents: des goulots d'étranglement dans la production de mémoire haute performance à la disponibilité énergétique pour alimenter les installations de plusieurs gigawatts. À cela s'ajoutent les permis nécessaires et la complexité de la coordination des projets avec tant d'acteurs. Pour le moment, le signé ouvre un chemin, mais il reste à voir ce qui se matérialise et dans les délais.
Images | Sam Altman | Samsung | SK Hynix | Simseo avec grok
Dans Simseo | Je suis accroché à Sora 2 depuis deux jours: je génère des mèmes absurdes où je suis le protagoniste et je ne peux pas m'arrêter
