Le marché des cartes graphiques est entré en vrille : cela faisait des décennies que si peu avaient été vendues

NVIDIA présente sa nouvelle superpuce IA. C’est exactement la même chose qu’ils avaient… avec une grande différence

En mars 2022, Nvidia présentait son GPU H100 à architecture Hopper, successeur d’Ampere, un monstre informatique aux 80 000 millions de transistors. Il avait le soi-disant Transformer Engine, « conçu pour accélérer la formation de modèles d’intelligence artificielle », mais à l’époque, beaucoup d’entre nous ne pouvaient pas imaginer à quel point c’était important. Puis ChatGPT est arrivé et nous avons réalisé à quel point cette puce était essentielle pour former ces modèles. NVIDIA a fait de l’or avec ces lancements, et bien qu’en mai il ait présenté ses superpuces GH200, il vient maintenant de présenter à nouveau ces puces… ou presque.

L’un des premiers Superchip GH200… En mai 2023, la superpuce bestiale GH200 de NVIDIA est arrivée. Ils ont combiné le processeur Grace (72 cœurs ARM et jusqu’à 480 Go de mémoire LPDDR5X) avec le GPU Hopper H100 (528 cœurs Tensor et 80 Go de mémoire HBM3).

… au nouveau Superchip GH200. Maintenant, NVIDIA a présenté une révision de ces « Superchip GH200 » qui ont exactement le même CPU -qui est en retrait dans ce domaine- mais qui incluent une amélioration significative pour le GPU : la mémoire n’est plus HBM3, mais HBM3e.

Une petite grosse différence. Il ne semble pas que cette différence puisse être si importante, mais elle l’est. Cette nouvelle version de la mémoire dispose d’une plus grande bande passante (de 4 To/s à 5 To/s), mais surtout d’une plus grande capacité grâce à ses puces de 24 Go. Cela permet à NVIDIA d’étendre la mémoire GPU de 96 à 144 Go, soit 50 % de plus qui fait une différence brutale pour les applications d’intelligence artificielle.

configuration double. Cette Superchip lui permet également de fonctionner en double configuration, ce qui reviendrait à disposer de 282 Go de mémoire HBM3e. Selon NVIDIA, cela permet d’avoir une capacité mémoire 3,5 fois supérieure à celle offerte par son GH200 d’origine, et jusqu’à 3 fois plus de bande passante (10 To/s en combinant les deux). NVIDIA tire les muscles.

Le supercalculateur est également mis à jour. Le supercalculateur DGX GH200 qui avait déjà été présenté en mai profite également de ces améliorations car il peut intégrer ces nouvelles Superchips à la place de celles d’origine avec de la mémoire HBM3 classique.

Il nous faudra du temps pour les voir. Bien que l’entreprise ait voulu profiter du salon SIGGRAPH ces jours-ci pour annoncer cette nouvelle version de ses superpuces, le nouveau GH200 ne sera pas disponible avant le deuxième trimestre 2024.

Il y a encore plus. Cette annonce a été particulièrement importante, mais lors de son discours inaugural au SIGGRAPH, la société a présenté d’autres produits et services entièrement axés sur le segment de l’IA générative. Ainsi, son nouveau support pour le prometteur standard de réalité augmentée OpenUSD se démarque, ou encore la success story de Writer, une plateforme d’écriture de texte IA que des entreprises comme L’Oréal, Uber ou Deloitte utilisent déjà.