La meilleure arme des États-Unis contre la Chine est une machine européenne : l'équipement de lithographie « EUV-High NA » d'ASML

Dans l’avenir du matériel d’IA, NVIDIA régnera, même s’il existe une entreprise prête à lui faire peur

NVIDIA règne en maître dans l’industrie du matériel d’intelligence artificielle (IA). AMD, Intel, Google et Amazon font partie des grandes entreprises qui lui font concurrence pour obtenir une bonne part du gâteau très juteux qu’est le marché des puces d’intelligence artificielle. Cependant, tous ils sont à des années lumière en termes de part de marché de l’entreprise dirigée par Jensen Huang, qui représente actuellement près de 80 % de cette industrie.

Cette domination écrasante vient de l’anticipation avec laquelle NVIDIA a su prévoir que le marché des puces IA allait bientôt exploser. Quoi qu’il en soit, les prévisions des experts prédisent quelque chose que nous, utilisateurs, pouvons facilement deviner si nous observons la direction dans laquelle se dirigent de nombreuses grandes entreprises. Ceux que j’ai mentionnés dans le paragraphe précédent en font partie, mais il y en a bien d’autres qui construisent leur structure commerciale sur l’IA. OpenAI, le créateur de ChatGPT, en fait partie.

Le cabinet de conseil TrendForce a publié un rapport très intéressant dans lequel il assure qu’OpenAI devra à l’avenir prendre en charge le moteur d’intelligence artificielle de ChatGPT avec plus de 30 000 puces IA. Ce calcul a été effectué en tenant compte du fait que cette organisation a utilisé environ 20 000 de ces puces en 2020 lors du processus de formation de son logiciel. Il est raisonnable de supposer qu’elle acquerra les puces de pointe de NVIDIA, mais il est possible que certains clients de la société de Jensen Huang se tournent vers l’un de ses principaux concurrents.

AMD donne des coups de coude

Il y a quelques jours, NVIDIA a présenté sa puce IA la plus puissante, le GPU H200. Cette bête est implémentée sur l’architecture Hopper et dispose de pas moins de 141 Go de VRAM de type HBM3E. Según sus creadores este procesador entrega el doble de rendimiento que su predecesor, el chip H100, cuando se enfrenta a las tareas de inferencia que requieren los modelos complejos de lenguaje, por lo que es posible que durante los próximos meses muchos clientes de NVIDIA se hagan avec lui.

Le GPU MI300X d’AMD est supérieur à la puce H100 de NVIDIA en termes de performances par watt et de performances par dollar

Cependant, il existe plusieurs alternatives aux puces NVIDIA AI, et l’une d’elles brille de mille feux : le GPU MI300X d’AMD. Eric Wu, ingénieur logiciel Tesla expert en intelligence artificielle, s’est rendu compte que cette proposition d’AMD Elle est supérieure à la puce H100 de NVIDIA en termes de performances par watt et de performances par dollar. De plus, même si elle possède presque deux fois plus de transistors que le GPU H100, la puce MI300X n’est que 25 % plus grande grâce à la lithographie utilisée par TSMC dans sa fabrication.

Malgré tout cela, NVIDIA a deux atouts majeurs entre ses mains. L’un d’eux, le plus convaincant, est CUDA, une plateforme qui rassemble un modèle de programmation et un ensemble d’outils de développement utilisés par de nombreuses entreprises d’IA. Le mettre de côté pour parier sur le matériel d’AMD ou de toute autre société ne sera pas facile à accepter pour les entreprises qui travaillent avec du matériel NVIDIA. Et, en plus, ce dernier bénéficie du coup de pouce que lui donnera vraisemblablement le nouveau GPU H200. Malgré cela, il est évident que Jensen Huang et ses acolytes ne parviendront pas du tout à se détendre s’ils veulent défendre la position confortable dans laquelle ils se trouvent actuellement.