B2001

NVIDIA domine actuellement le marché des puces IA. Vos propres clients veulent renverser la situation

Pendant quatre décennies, Il n'y avait personne pour tousser sur Intel. Puis arriverait AMD, qui a réussi à cracher beaucoup et avec qui depuis le début du millénaire est partagé le gâteau des processeurs pour ordinateurs de bureau et serveurs.

Ce duopole particulier s’est poursuivi jusqu’à ce jour, mais uniquement dans ces deux domaines. La révolution des smartphones a montré que l'architecture ARM était une meilleure option, et c'est une opportunité dont ont profité les nouveaux empires des puces: d'abord Qualcomm, puis, dans une moindre mesure, MediaTek, et plus tard, presque sans faire de bruit, Apple, Il s'est finalement rendu compte que les puces ARM étaient également idéales pour ses ordinateurs.

Une fois de plus, il semblait difficile de changer radicalement ce panorama, mais cette nouvelle révolution provoquée par l’intelligence artificielle a ouvert un nouveau champ de bataille dans le domaine des semi-conducteurs. Celui avec des puces IA.

B2001

D'Intel, de processeurs, de smartphones et de boules de cristal

Cette raison n’est autre que d’éviter la dépendance à l’égard de NVIDIA, qui a actuellement le dessus. Ses cartes graphiques professionnelles – la H100 maintenant, la B200 récemment annoncée dans quelques mois – sont des références claires si l'on veut développer et entraîner ses propres modèles d'IA, mais il s'avère que ceux qui le font ont réalisé une chose importante : faire des jetons sont à la disposition de tous.

Big Tech s'engage pour fabriquer des puces IA

Ce n’est sans doute pas une mince affaire, mais toutes ces entreprises disposent de ressources largement suffisantes pour le faire. Nous l’avons annoncé en décembre 2020 lorsque des rumeurs sont apparues selon lesquelles Microsoft préparait ses propres puces, même si l’on ne savait pas exactement où cela allait aller.

Maïa
Maïa

Aujourd’hui, nous connaissons la réponse à cette question : les puces Azure Maia AI sont précisément conçues pour, comme on dit dans Microsoft, « réinventez chaque aspect de nos centres de données. » Ou ce qui revient au même, insistons-nous, arrêtez de dépendre de NVIDIA.

Les autres entreprises impliquées dans le développement de grandes plateformes d’intelligence artificielle font de même. Google est probablement le meilleur exemple. Leur travail a commencé il y a des années : en 2015, ils ont commencé à utiliser leurs TPU (Tensor Processing Units) en interne, mais l'annonce publique de l'existence de ce produit n'a eu lieu qu'en 2016 par Google I/O.

Il s'est avéré que le concept finirait par faire le grand saut sur ses téléphones mobiles : les Pixel ont commencé à utiliser leur propre processeur (Google Tensor) avec le Pixel 6 de 2022, et depuis, ils développent de nouvelles versions chaque année. Ces SoC sont également nés avec une curieuse approche. Ils n’ont gagné aucune guerre en puissance ni même en efficacité, mais ils ont gagné dans leurs performances spécifiques pour les tâches d’IA.

Google
Google

Le Cloud TPU v5e de Google, en action dans l'un de ses centres de données.

Mais comme on dit, l'apprentissage, bien qu'appliqué aux téléphones mobiles, a poursuivi son chemin dans le monde des serveurs. Les TPU de Google ont également continué à évoluer et disposent aujourd'hui du Cloud TPU v5e, spécifiquement destiné à l'inférence et à la formation de modèles d'IA.

amazone, dominant dans le paysage du cloud computing, mise également beaucoup sur ce domaine. La société a récemment lancé AWS Graviton 4 et AWS Trainium 2, et dans son annonce de novembre, elle a clairement indiqué que ces puces offraient des améliorations en matière d'efficacité énergétique pour un large éventail de charges de travail, « y compris la formation en apprentissage automatique (ML) et les applications d'intelligence artificielle générative ». intelligence (IA).

Le dernier grand de la Big Tech, inconnu dans le monde des semi-conducteurs, semble lui aussi avoir rejoint la tendance avec force. En 2023, les ingénieurs de But Ils ont présenté ce qu'on appelle MTIA v1 (de Meta Training and Inference Accelerator). Cette semaine, ils nous ont déjà parlé de la prochaine génération de ces puces spécialisées dans le segment de l'IA et qu'en fait elles feront partie d'une famille de puces multidisciplinaires.

Capture d'écran 2024 04 12 À 12 49 52
Capture d'écran 2024 04 12 À 12 49 52

Puce MTIA de nouvelle génération de Meta se connectant à son socket.

La puce sera nettement supérieure à sa première version, tant en termes de photolithographie (5 nm vs 7 nm) que de TDP (90 W vs 25 W). Dans Meta, ils assurent que grâce à tout cela, il offrira jusqu'à 3,5 fois les performances en « calcul dense (données avec peu de valeurs nulles), et jusqu'à 7 fois les performances en calcul clairsemé (nombreuses valeurs nulles) – dans les opérations avec des matrices, base en informatique IA – par rapport à ce qui est réalisé avec MTIA v1.

Mais attends, il y a plus

Bien entendu, tous ces géants de la technologie ne seront pas seuls dans leurs efforts. Nous avons déjà parlé de NVIDIA et de ses H100 et B200, mais il existe une concurrence tout aussi importante de la part des fabricants qui, sans entrer dans cette catégorie Big Tech, sont des rivaux évidents de NVIDIA lorsqu'il s'agit de fournir leurs solutions à ceux qui développent des modèles d'IA.

Instinct
Instinct

L'accélérateur AMD Instinct MI300X fait partie des nouveaux prétendants sur ce segment en plein essor.

Ici c'est bien sur AMD, qui investit également dans ce domaine depuis plus longtemps que nous le pensions. Elle a présenté sa première Radeon Instinct fin 2016, et ce travail s'est poursuivi : il y a quelques mois, elle a présenté la dernière itération de ce projet, l'Instinct MI300X.

Intelson compagnon et rival de voyage pendant des années, semblait quelque peu désemparé dans le domaine de l'IA, mais elle a mis le pied à terre et a présenté ces jours-ci Gaudi 3, une carte accélératrice d'IA qui promet de surpasser le H100 de NVIDIA et qui, surtout, il a un objectif particulièrement marquant : tenter d’expulser CUDA du marché.

GPU NVIDIA, Deep Learning et fin de la loi de Moore : nous parlons avec Manuel Ujaldón (Insert Coin 1x07)

Mais outre Intel et AMD, nous comptons également sur des fabricants renommés tels que Qualcommqui a présenté en novembre ses accélérateurs Cloud AI 100 Ultra, ou encore Huaweiqui grâce à sa famille Ascend dispose également de cartes spécialisées dans l'inférence (Atlas 300I) et la formation (Atlas 300T).

Pendant ce temps, la Chine semble vouloir se joindre à cette fièvre particulière. Alibaba possède une filiale qui développe des puces d’IA, mais ici le géant asiatique semble pour le moment clairement désavantagé en raison du blocus commercial auquel il est soumis.

Tout cela peint un panorama des plus compétitifs pour le marché de l'intelligence artificielle. Ce qui a déjà été vu dans le segment mobile – Apple, Google, Huawei ou Samsung fabriquant leurs propres puces – commence également à se voir dans le monde de l'IA, et la question, bien sûr, est de savoir qui finira par prendre les devants. . eau.

Images | Richyart avec Midjourney

À Simseo | Le lancement de la nouvelle superpuce IA de NVIDIA laisse une question : où sont ses équivalents PC et mobiles ?