présente son propre supercalculateur dans le cloud dédié à l’intelligence artificielle
Nous vivons dans un monde où de plus en plus d’entreprises s’impliquent dans le domaine de l’intelligence artificielle (IA). De Meta à Microsoft en passant par Tesla, tous ont investi des millions de dollars dans la création de leurs propres systèmes de calcul de puissance. haut rendement suivant les modèles du supercalcul traditionnel. Mais IBM, qui possède une vaste expérience dans l’industrie, a décidé de miser sur une autre solution.
Au lieu d’installer un supercalculateur à un certain endroit, avec tous les efforts que cela impliquerait, IBM a pensé à développer une infrastructure flexible qui pourrait être déployée dans n’importe lequel de ses centres de données répartis dans le monde via le cloud. Ce système hybride appelé « Vela » est déjà une réalité. En fait, il fonctionne tranquillement depuis mai de l’année dernière.
Virtualisation et hautes performances ?
À première vue, l’idée d’utiliser la virtualisation pour former les modèles d’intelligence artificielle de plus en plus complexes peut ne pas sembler très convaincante ou efficace. On sait que le fait de ne pas exécuter nativement le logicielCela se traduit généralement par une perte de performances. Et comment s’autoriser à perdre en performance alors que chaque marge de puissance de calcul est une ressource importante ?
D’IBM, ils soulignent qu’après une longue période de recherche, ils ont réussi à réduire les frais généraux de virtualisation à environ 5 %. Ces valeurs, selon l’entreprise, si elles sont mises en contraste avec la versatilité de la solution, se situent dans des paramètres acceptables. L’un des avantages est d’utiliser l’infrastructure existante et d’allouer rapidement des ressources via un logiciel.
L’idée, sur le papier, est vraiment tentante. Le géant américain a désormais la capacité de utilisez votre capacité de calcul avec souplesse. Justement, cette première configuration de Vela s’annonce bestiale. Nous ne connaissons pas le nombre exact de nœuds qui font partie de la configuration qu’ils utilisent chez IBM Research, mais nous savons comment chacun est composé. Voyons.
Chaque nœud dispose de deux processeurs Intel Xeon de 2e génération, de 1,5 To de DRAM, de quatre disques NVMe de 3,2 To et de huit GPU NVIDIA A100 de 80 Go. De plus, Vela bénéficie de solutions évolutives NVLink et NVSwitch, c’est-à-dire une interconnexion GPU directe qui adapte l’entrée/sortie (IO) de plusieurs GPU pour fournir une communication à vitesse NVLink complète au sein d’un seul nœud et entre les nœuds.
Les créateurs du célèbre système Watson disent avoir pour objectif de « réduire le temps de construction et de mise en œuvre modèles d’IA de classe mondiale”. Maintenant, ils espèrent continuer à faire des progrès dans ce domaine et à créer de « nouvelles opportunités d’innovation ». Bien sûr, pour l’instant, Vela sera une ressource exclusive pour les chercheurs d’IBM Research. Nous verrons ce qu’ils ont dans leurs manches.
A Simseo : Frontier, le nouveau supercalculateur le plus puissant au monde, a franchi une étape importante : franchir la barrière de l’exascale