c’est le monstrueux DGX GH200 pour entraîner des « modèles géants »
NVIDIA ne se contente pas d’être l’un des grands gagnants du boom de l’intelligence artificielle (IA). L’entreprise américaine continue de miser sur la poursuite du développement de son modèle économique au-delà des solutions graphiques destinées à utilisateurs individuels comme nous. En d’autres termes, il vise à consolider son rôle d’entreprise technologique leader dans le domaine du calcul haute performance (HPC).
Les signaux sur ce qui donne le ton à l’évolution de NVIDIA en tant qu’entreprise viennent directement de Taipei, à Taïwan, où COMPUTEX, l’un des plus grands événements technologiques de l’année, se déroule. Là, le patron de la société américaine, Jen-Hsun Huang, a annoncé d’importants développements liés à l’IA qui ne sont pas passés inaperçus.
NVIDIA Grace Hopper Superchip en route
Ce n’est un secret pour personne que nous vivons dans un monde qui exige des centres de données toujours plus puissants. Or, puisque ces systèmes informatiques complexes sont constitués d’une grande variété de composants, il existe plusieurs façons de améliorer vos performances. L’une d’entre elles consiste par exemple à optimiser la communication entre eux en mettant en place des architectures d’interconnexion améliorées.
En ce sens, NVIDIA a lancé la production du Grace Hopper Superchip GH200, une solution qui combine le CPU à architecture Grace (avec 72 cœurs ARM et jusqu’à 480 Go de mémoire LPDDR5X) avec le gigantesque GPU H100 à architecture Hopper (avec 528 cœurs Tensor ) et 80 Go de mémoire HBM3). Tout cela, interconnecté avec le système NVLink-C2C hautement efficace du même fabricant.
Il convient de noter les progrès prometteurs de la « superpuce » susmentionnée. Si nous mettons en place une configuration d’un processeur Grace avec un GPU H100 connecté avec PCIe traditionnel, la performance globale serait nettement inférieure à cette approche combinée. NVLink-C2C, comme promis par le fabricant, permet d’augmenter la bande passante entre le CPU et le GPU d’environ sept fois par rapport au PCIe.
Mais ce n’est pas tout, comme on dit, l’engagement de NVIDIA dans le monde du HPC semble sérieux. Ainsi, ceux menés par Jen-Hsun ont annoncé l’implémentation de Grace Hopper Superchip GH200 dans la solution DGX qu’ils ont qualifiée de « supercalculateur ». Et cette définition a du sens, car il ne s’agit pas d’un nœud de centre de données standard, mais d’un véritable cluster hautes performances.
On parle du DGX GH200 AI : Grace Hopper, une pièce colossale de haute technologie (destiné à former des « modèles géants » d’IA) qui se compose de 256 super puces GH200 interconnectés via le système NVLink, qui promet jusqu’à 48 fois plus de bande passante que la même configuration basée sur la génération précédente. Le résultat? 144 To de mémoire combinée et 1 ExaFLOP de performances.
NVIDIA a déjà précisé qui seront les principaux clients du système DGX GH200 AI : Grace Hopper. Plus précisément, Google, Meta et Microsoft attendent de commencer à utiliser le système lorsqu’il sera disponible pour les tâches d’IA plus tard cette année. Bien sûr, en théorie, toute autre entreprise capable de payer pour cela pourrait également y accéder. Et bien que nous ne connaissions pas son prix, ce ne sera certainement pas bon marché.