va tripler la production de ses puces H100 pour l’IA face à un procès insensé
Tout le monde aime NVIDIA. Ce fabricant que nous identifiions jusqu’à récemment au monde du jeu est devenu le protagoniste absolu du segment de l’intelligence artificielle. Ses GPU spécialisés sont devenus un élément clé du développement de modèles d’IA, et désormais tout le monde réclame de plus en plus de puces de ce type. Le problème? Ils ne peuvent pas tout faire.
NVIDIA n’arrive pas à suivre. Comme le révèle le Financial Times, la « soif massive » de puces NVIDIA pour ce type de projets touche l’ensemble du marché des composants informatiques. En fait, l’intérêt porté à ces puces d’IA spécialisées fait perdre de l’importance aux serveurs conventionnels.
Les serveurs s’essoufflent (aussi). Le marché des PC n’est pas le seul à être dans le marasme. Foxconn a indiqué la semaine dernière que les revenus mondiaux dans le domaine des serveurs diminueraient cette année. Lenovo, qui a fourni ses résultats financiers la semaine dernière, a également déclaré que la baisse de 8 % de son chiffre d’affaires au deuxième trimestre était en grande partie due à la perte de demande pour ses serveurs de fournisseur de cloud (CSP) et à une pénurie de puces d’IA sous forme de GPU.
Ils veulent tripler la production. Des sources proches de l’entreprise indiquent que chez NVIDIA, ils ont l’intention de (au moins) tripler la production de leur puce H100, le processeur le plus puissant dont ils disposent actuellement dans ce segment. Ainsi, en 2024, ils produiraient entre 1,5 et 2 millions de puces, ce qui représente un bond énorme par rapport aux 500 000 qu’ils auront fabriqués en 2023.
La demande de puces IA continuera de croître. TSMC est le plus grand fabricant de puces au monde et le seul à fabriquer ces puces pour NVIDIA. Selon les responsables, la demande de puces IA pour serveurs augmentera d’environ 50 % par an au cours des cinq prochaines années, mais cela ne suffira pas à compenser l’impact de la situation économique actuelle.
Le cloud ne veut plus d’autant de serveurs normaux. Aux États-Unis, les principaux acteurs de l’infrastructure cloud – Microsoft, Amazon et Google – ont changé d’orientation et tentent de renforcer leur infrastructure d’IA. Selon Counterpoint Research, les dépenses d’infrastructure n’augmenteront que de 8 % cette année, alors qu’en 2022 elles ont augmenté de 25 %. Parmi les coupables, il y a bien entendu l’inflation.
Une mise à niveau complexe et coûteuse. Le problème, comme le soulignent les experts, est que pour que ces fournisseurs mettent à jour leurs serveurs pour devenir des serveurs IA, de nombreux autres composants doivent être mis à jour en plus de leur GPU. Cela n’était pas prévu dans les budgets de ces entreprises, de sorte que ce type d’expansion « cannibalise d’autres dépenses », a déclaré Angela Hsiang de la société d’investissement KGI à Taipei.
Meta freine les investissements dans les serveurs non IA. TrendForce s’attend à ce que la distribution mondiale de serveurs conventionnels (non IA) diminue de 6 % cette année et seulement une légère croissance de 2 à 3 % en 2024. Dans leur analyse, ils indiquent que Meta a eu un grand impact sur la chute car elle a réduit ses investissements dans ce domaine de plus de 10 % pour se concentrer sur le matériel pour l’IA.
Goulot d’étranglement jusqu’en 2025. Le problème ne réside pas seulement dans la production de GPU spécialisés, mais aussi dans les mémoires HBM – fabriquées par SK Hynix et Samsung – qui utilisent ces puces. Brady Wang, analyste de Counterpoint, assure que ce goulot d’étranglement ne sera résolu que fin 2024.
plus d’espace s’il vous plaît. Une autre des conséquences de cette transformation des centres de données réside dans les besoins mêmes de ces serveurs d’IA spécialisés, qui ont besoin de cartes mères tout aussi spécifiques, mais aussi de racks plus grands pour pouvoir placer ces GPU. Les exigences en matière d’alimentation électrique et de systèmes de refroidissement changent également : ces puces génèrent plus de chaleur que celle présente dans les serveurs conventionnels.
