C'est ainsi que NVIDIA gagne de l'argent : du statut de société de jeux à celui de centres de données dominants à l'ère de l'IA

où sont leurs équivalents pour PC et mobile

Jensen Huang était dans son élément hier. Sachant qu'aujourd'hui les rivaux continuent de tirer la langue pour tenter de gagner du terrain, il a présenté, entre autres, son nouvelles puces d'intelligence artificiellele B200 à l'architecture Blackwell.

Ces monstres informatiques font un net bond quantitatif : des 80 milliards de transistors de leur prestigieux H100 à architecture Hopper ils passent désormais à 208 milliards de transistors. C’est ce qui les rend 2,5 fois plus puissants que leurs prédécesseurs, et cela en fera sans aucun doute des produits très demandés à l’ère de l’IA où la capacité de traitement fait la différence.

L'événement GTC 2024 de NVIDIA a laissé d'autres nouveautés importantes comme ce jumeau numérique de notre planète, Terre-2, pour analyser la météorologie, son projet GROOT pour robots humanoïdes ou sa nouvelle plateforme de simulation quantique.

Autant de confirmations prometteuses et claires que l'entreprise veut profiter de son inertie actuelle pour continuer à dominer dans les centres de données dont nous dépendons pour une multitude de processus, tant professionnels que quotidiens. Mais NVIDIA semble oublier quelque chose.

Des utilisateurs.

En fait, il est particulièrement choquant qu’il n’y ait eu aucune nouvelle concernant cette autre branche de l’intelligence artificielle qui émerge progressivement : celle de pouvoir exécuter des applications d’IA localement.

Nous commençons à voir où les choses peuvent aller au cours de ces premiers mois de 2024. Les fabricants de PC, d’ordinateurs portables et de mobiles profitent – ​​peut-être de manière excessive – de l’IA comme argument pour nous vendre leurs nouveaux appareils. Si pour l’instant les approches sont intéressantes mais relativement modestes – transcrire des conversations, les traduire en temps réel, en faire des synthèses – tout indique que ces caractéristiques iront plus loin.

Mais pour ce faire, il serait important de disposer de puces spécialisées. Tout comme nous avons des cartes graphiques pour les jeux, Il est raisonnable de penser que des cartes accélératrices d’IA seraient utiles pour ce type d'applications. Il est vrai que les SoC actuels d'Apple, Intel, AMD ou Qualcomm intègrent des cœurs dédiés (normalement appelés NPU, Neural Processing Units), mais ils doivent partager de l'espace avec le reste des composants, et dans certains cas, cela peut ne pas suffire. .

Capture d'écran 2024 03 19 À 13 51 17
Capture d'écran 2024 03 19 À 13 51 17

Ce nœud de calcul Blackwell dispose de deux processeurs Grace et de quatre des nouveaux GPU B200 avec l'architecture Blackwell. Ses performances et son IA peuvent atteindre 80 pétaFLOPS selon l'entreprise. Un scandale absolu.

Et il y a NVIDIA, qui a une magnifique opportunité de devenir incontournable dans les PC, ordinateurs portables, tablettes et téléphones mobiles – et pratiquement tout autre appareil – et ne semble avoir aucune solution à cet égard. Il est vrai que ses graphiques RTX servent également à accélérer ce type de processus, mais ils ne sont pas spécialement conçus pour cela. Et c’est là que réside le point crucial – d’ailleurs, prononcé [kíd]Non [kuíd]… de la question.

Ce lièvre en particulier a été élevé il y a des mois par Groq – à ne pas confondre avec Grok – une startup qui a précisément conçu des puces d'IA appelées LPU et spécialisée dans le traitement du langage. Ou qu'est-ce qui est pareil : Accélérateurs ChatGPT.

Sa proposition est des plus frappantes, notamment parce qu'elle ouvre les portes à cette nouvelle tendance qui signifierait que nous aurons non seulement un CPU ou un GPU dans notre ordinateur ou notre smartphone, mais aussi un LPU pour que l'interaction avec des chatbots tels que ChatGPT, Copilot ou Gemini est particulièrement rapide.

Bienvenue dans l'ère de l'IA de poche : Google propose une révolution avec Gemini Nano

Mais NVIDIA ne semble pas intéressé par ce secteur pour le moment. C'est en partie compréhensible : l'entreprise va comme une fusée absolue grâce à des puces comme le H100, et il est prévisible qu'elle continuera à le faire avec le nouveau B200. Et pourtant, personne n’est mieux placé qu’eux pour proposer des solutions de ce type.

Peut-être gardent-ils de mauvais souvenirs de leur précédente aventure dans un monde qui n'était pas celui des cartes graphiques. Les puces NVIDIA Tegra étaient des SoC comme ceux fabriqués actuellement par Qualcomm, Apple ou MediaTek : ils disposaient d'un CPU et d'un GPU ARM et étaient axés sur un traitement multimédia efficace.

Ils n'ont pas trop mal réussi l'expérience : le Tegra

Depuis lors, cependant, il n'y a eu aucune amélioration ni développement apparent, à l'exception du fait qu'en 2021, il a été question d'arrêter de les produire, mais apparemment, ils ont fini par réintroduire leur fabrication en raison du lancement des Switch OLED, également basés sur les chips, Tegra. Ils ont vendu des millions de puces grâce au succès de ces consoles, alors… pourquoi ne pas renforcer cette gamme de produits ?

Seul NVIDIA le sait. La vérité est que l’accent clairement mis sur le segment des cartes graphiques dédiées et désormais sur les puces IA semble exclure la possibilité de projeter des puces accélératrices IA pour nos téléphones mobiles ou nos ordinateurs. Ce sera une question de temps je sais si c'était une erreurmais a priori cela semble être un domaine intéressant dans lequel l'entreprise aurait pu lancer sa proposition.

À Simseo | Supermicro est le géant caché de l'ère de l'IA. Il croît plus que NVIDIA