Si IBM réalise son plan, la révolution de l'ordinateur quantique arrivera plus tôt que prévu

AMD a lancé deux GPU avec lesquels il aspire à arracher le leadership à NVIDIA

AMD prévoit que le marché des puces pour applications d’intelligence artificielle (IA) atteindra un volume de 400 milliards de dollars en 2027. Et elle vise à obtenir une bonne part de ce gâteau, même si ce ne sera pas facile. NVIDIA représente actuellement près de 80% de ce marché et rien ne semble indiquer que sa position dominante sera modifiée à court terme. En fait, son activité ne cesse de se renforcer, comme le confirment ses résultats financiers au cours du troisième trimestre de l’exercice en cours.

Lisa Su, la PDG d’AMD, a présenté il y a quelques heures à peine deux GPU pour l’IA dont on entend parler depuis plusieurs mois, mais qui jusqu’à présent n’avaient pas officiellement vu le jour : le GPU Instinct MI300X et l’APU Instinct MI300A. . Leurs spécifications, comme nous allons le voir, sont très prometteuses, mais il y a quelque chose qui permet à ces puces de se démarquer de leurs concurrentes : leur conception modulaire dans laquelle elles prennent la tête.

Les chipsets sont le meilleur atout d’AMD pour rivaliser avec NVIDIA

Ce sont de vieilles connaissances. Ils sont arrivés aux processeurs généralistes d’AMD avec l’architecture Zen et chacun d’eux regroupe une partie de la logique du CPU. En pratique, ils sont plusieurs circuits intégrés différents qui communiquent par des liens performants et qui sont cohérents dans un même packaging. C’est la recette utilisée par l’entreprise dirigée par Lisa Su pour cuisiner ses dernières et plus ambitieuses puces pour l’IA.

Une plate-forme Instinct MI300X à huit GPU offre des performances allant jusqu’à 10,4 pétaflops selon AMD dans les opérations FP16

Le GPU Instinct MI300X est une bête absolue. Au moins, c’est sur papier. Et il rassemble pas moins de huit mémoires HBM3 totalisant 192 Go et huit autres avec lithographie 5 nm qui contiennent la logique GPU. Ce matériel coexiste avec 256 Mo de cache Infinity et est emballé en utilisant la technologie hybride la plus avancée dont dispose actuellement AMD. Tout cela semble bien, mais le plus choquant est que ces puces ont été conçues pour fonctionner par groupes de huit.

Une plateforme de huit GPU Instinct MI300X pour applications d’intelligence artificielle générative totalise 1,5 To de mémoire HBM3 et a, selon AMD, une performance de jusqu’à 10,4 pétaflops dans les opérations du 16e PC. C’est effrayant, même s’il ne faut pas oublier que c’est ce que nous promet cette entreprise, il sera donc intéressant de voir si ses performances sont comme prévu dans un scénario d’utilisation réel. Dans tous les cas, AMD assure qu’une puce Instinct MI300X est entre 1,3 et 2,4 fois plus puissante qu’un GPU NVIDIA H100 selon le scénario d’utilisation auquel nous sommes confrontés.

D’un autre côté, les fonctionnalités de l’APU Instinct MI300A sont également impressionnantes. Il est important de ne pas oublier qu’il s’agit d’un APU, il combine donc la logique d’un CPU et d’un GPU dans le même package. Il empile huit HBM3 en plus de ceux contenant la logique GPU et CPU, bien qu’ils aient une capacité inférieure à celle du GPU Instinct MI300X, il se contente donc de 128 Go. AMD affirme que les performances de cet APU sont également supérieures à celles de la puce H100 de NVIDIA, mais la société dirigée par Jensen Huang a déjà présenté son GPU H200. Et il arrivera en 2024. Les épées sont levées.