Alors que le segment grand public est en train de se noyer, Samsung est le premier à fabriquer de la mémoire HBM4. Et ce sera pour NVIDIA, bien sûr
Samsung est l'un des noms de ce mois de février. Ils devraient présenter le Galaxy S26, mais ils ont quelque chose sur la table qui sera un choc non seulement pour leurs coffres, mais aussi pour le moteur de l'économie sud-coréenne. Nous parlons de mémoires à haut débit car, en pleine crise de la RAM et du SSD, Samsung est prêt à fabriquer en masse des mémoires HBM4.
Et ce sera le cas pour l’IA, comment pourrait-il en être autrement.
En bref. La société sud-coréenne ne l'a pas confirmé, mais des rapports récents publiés par Reuters et des sources locales telles que le Korea JoongAng Daily suggèrent que Samsung commencera la fabrication en série de puces mémoire HBM4 à partir de la semaine prochaine.
Ce sera la première des trois entreprises qui dominent la production de puces mémoire (les autres sont le sud-coréen SK Hynix et l'américain Micron, qui a abandonné la RAM grand public) à commencer à fabriquer en grande quantité ces mémoires fondamentales pour l'intelligence artificielle.
HBM4. Ce type de mémoire, comme son nom l’indique, possède une énorme bande passante. Ceci est crucial pour les besoins en GPU, et tandis que NVIDIA s'en tient à la mémoire GDDR pour ses cartes graphiques, AMD a flirté avec la technologie de puce HBM empilée pour ses GPU Vega. Cependant, ce n’est pas une technologie de consommation, non pas parce que ses performances sont insuffisantes, mais parce qu’elle est trop coûteuse.
Fabriquer de la mémoire HBM coûte plus cher que fabriquer des puces DRAM traditionnelles, mais les avantages sont là. Avec HBM4, par exemple, la densité des puces empilées permet une bande passante deux fois supérieure à celle de la génération précédente. C'est la clé pour transmettre plus de données par seconde, mais elles consomment également jusqu'à 40 % d'énergie en moins que les mémoires HBM3.
Nvidia. La partie la plus intéressée est, comme nous l'avons dit à plusieurs reprises, NVIDIA. Et si NVIDIA en profite, pratiquement l’ensemble du secteur leader de l’intelligence artificielle en profitera, car ce sont ses puces qui font actuellement bouger l’industrie. On estime que les mémoires Samsung iront aux systèmes d'accélération Vera Rubin de NVIDIA
En fait, il a été rapporté que Jensen Huang lui-même avait exhorté à accélérer et à augmenter la production de ces puces. Eh bien, Huang a demandé à toute l’industrie des semi-conducteurs qui fabrique des composants pour ses cartes d’intensifier ses efforts, ce n’est pas quelque chose qui concerne uniquement Samsung.
Fer de lance. Selon une source du KoongAng Daily coréen, « Samsung possède la plus grande capacité de production et la plus large gamme de produits au monde. Il a démontré une reprise de sa compétitivité technologique en devenant le premier à produire en masse la mémoire HBM4 la plus performante. »
Car, dans ce domaine, son principal concurrent, le voisin SK Hynix, devrait commencer à fabriquer en série sa réponse entre mars ou avril, suffisamment tôt pour que Samsung puisse commencer à envoyer sa mémoire à NVIDIA. Et, ici, le grand avantage de Samsung, c'est qu'il ne dépend pas de TSMC : il possède sa propre fonderie et les modules HBM4 sont basés sur la photolithographie à 4 nanomètres.

Regard vers l'avenir. Le retard de SK Hynix n'est pas dû au fait qu'ils se sont reposés sur leurs lauriers : ce sont eux qui ouvrent la voie dans la génération précédente grâce à la mémoire HBM3E, mais en raison de leur calendrier et parce qu'ils n'en avaient pas besoin, ils ont commencé à développer la nouvelle génération plus tard que Samsung. Mais bien sûr, bien que les HBM soient la norme dans les systèmes d'IA actuels, nous avons déjà dit que ce sont des puces coûteuses et, en plus, elles chauffent beaucoup, nécessitant un équipement de dissipation correspondant.
Et c'est là que les entreprises combinent la production de mémoire HBM4 avec une nouvelle génération de mémoire DRAM. L'idée est de trouver un moyen pour cette mémoire – plus lente, mais moins chère et « fraîche » – de rivaliser en termes de bande passante avec le HBM. Samsung et SK Hynix sont de la partie, mais ils devront rivaliser avec quelqu'un qui n'a pas joué dans cette ligue : un Intel qui n'arrive pas seul, mais avec l'aide du géant japonais SoftBank.


En bref : Samsung a décidé de se remettre sur pied en matière de fabrication de muscle. Et le plus important de tout est que toutes les entreprises qui fabriquent des modules de mémoire restent concentrées sur une chose : elles fabriquent du matériel pour l'intelligence artificielle tandis que des composants comme la RAM et les SSD grand public ont des prix exorbitants.
Images | Maxence Pira, Choi Kwang-mo, logo NVIDIA (édité)
À Simseo | Huawei a tenu sa promesse : il a trouvé un moyen de renforcer la compétitivité de la Chine en matière d'IA par rapport aux États-Unis
