Les startups se disputent le composant vital de Nvidia

Les startups se disputent le composant vital de Nvidia

La révolution de l’intelligence artificielle est en marche, mais la demande croissante pour son composant le plus crucial amène les startups à se demander comment elles peuvent tenir les promesses de l’IA.

L’élément vital de Generative AI est un semi-conducteur de la taille d’un livre connu sous le nom d’unité de traitement graphique (GPU), construit par une société, Nvidia.

Le PDG et fondateur de Nvidia, Jensen Huang, a fait un pari fou il y a des années que le monde réclamerait bientôt une puce puissante habituellement utilisée pour créer des jeux vidéo, mais qui pourrait également développer l’IA.

Aucune entreprise travaillant avec les modèles d’IA générative qui alimentent la frénésie actuelle ne peut décoller sans le produit unique de Nvidia : le dernier modèle est le H100 et le logiciel qui l’accompagne.

Cette douloureuse réalité est une réalité à laquelle Amazon, Intel, AMD et d’autres s’efforcent de remédier avec leurs propres alternatives, mais ces tentatives pourraient prendre des années.

« Pas beaucoup de GPU »

Et alors que les plus grandes entreprises technologiques consacrent toute leur puissance financière à l’IA générative, les plus petits poissons doivent partir à la chasse pour obtenir le Saint Graal de Nvidia.

« Partout dans le monde, il devient très difficile d’obtenir des milliers de GPU parce que toutes ces grandes entreprises investissent des milliards de dollars et stockent des GPU », a déclaré Fangbo Tao, co-fondateur de Mindverse.AI, une startup basée à Singapour.

« Il n’y a pas beaucoup de GPU », a-t-il déclaré.

Le PDG de Nvidia, Jensen Huang, a fait un pari fou il y a des années que le monde réclamerait bientôt une puce puissante habituellement utilisée pour créer des jeux vidéo, mais qui pourrait également développer l'IA.

Tao s’est entretenu avec l’AFP lors de la conférence TechCrunch Disrupt à San Francisco, où les startups de l’IA se bousculaient pour présenter leurs arguments aux investisseurs en capital-risque (VC) de la Silicon Valley.

ChatGPT a pris d’assaut le monde au moment même où la Silicon Valley était prise dans une gueule de bois désagréable à cause de la pandémie lorsque les investisseurs ont jeté de l’argent sur les startups, convaincus que la vie s’était déroulée de manière irréversible en ligne.

Cela s’est avéré tiré par les cheveux, et la scène technologique américaine est entrée dans une récession avec des séries de licenciements et un tarissement de l’argent du capital-risque.

Grâce à l’IA, une partie du vieux mojo est de retour, et quiconque ayant ces deux lettres sur son CV verra probablement un tapis rouge déroulé sur la légendaire Sand Hill Road, qui abrite les investisseurs les plus réputés de la Silicon Valley.

Mais à mesure que les startups repartent avec leur argent en capital-risque, l’argent dans leurs poches sera rapidement reversé à Nvidia pour les GPU, soit directement, soit par l’intermédiaire de fournisseurs, afin de concrétiser leurs rêves en matière d’IA.

« Nous faisons appel à beaucoup de grands fournisseurs de cloud (Microsoft, AWS et Google), et ils nous disent tous qu’ils ont même du mal à s’approvisionner », a déclaré Laurent Daudet, PDG de la startup d’IA LightOn.

Le problème est plus aigu pour les entreprises impliquées dans la formation de modèles d’IA génératifs, qui nécessitent que les GPU gourmands en énergie fonctionnent à pleine capacité pour traiter des quantités de données ingérées sur Internet.

Les besoins informatiques sont si énormes que seules quelques entreprises peuvent réunir les fonds nécessaires pour créer l’un de ces grands modèles de langage de pointe.

Les entreprises en première ligne de l'IA soulignent que le rôle primordial de Nvidia en fait de facto le faiseur de rois sur l'orientation de la technologie.

« Aspirer l’oxygène »

L’investissement de dix milliards de dollars de Microsoft dans OpenAI est largement considéré comme étant versé sous forme de crédits pour accéder à des centres de données spécialement conçus et dotés de GPU Nvidia.

Google a construit ses propres modèles et Amazon a annoncé lundi qu’il injectait quatre milliards de dollars dans Anthropic AI, une autre société qui forme l’IA.

La formation sur cette montagne de données « aspire actuellement presque tout l’oxygène du marché des GPU », a déclaré Said Ouissal, PDG de Zededa, une entreprise qui s’efforce de rendre l’IA moins gourmande en énergie.

« Vous envisagez le milieu de l’année prochaine, peut-être la fin de l’année prochaine, avant de pouvoir réellement recevoir la livraison de nouvelles commandes. La pénurie ne semble pas s’atténuer », a ajouté Wes Cummins, PDG d’Applied Digital, une société qui fournit l’infrastructure d’IA.

Les entreprises en première ligne de l’IA soulignent également que le rôle primordial de Nvidia en fait le faiseur de facto sur l’orientation de la technologie.

Le marché est « presque entièrement piloté par les grands acteurs – Google, Amazon, Metas » qui disposent « d’énormes quantités de données et d’énormes quantités de capital », a déclaré l’ancien ingénieur de Nvidia, Jacopo Pantaleoni, à The Information.

« Ce n’était pas le monde que je voulais aider à construire », a-t-il déclaré.

Certains vétérans de la Silicon Valley ont déclaré que les jours frénétiques des GPU Nvidia ne dureraient pas éternellement et que d’autres options émergeraient inévitablement.

Ou bien le coût d’entrée s’avérera trop élevé, même pour les géants, ce qui ramènera sur terre le boom actuel.