il n'y a pas de puissance pour autant de puces
Le PDG de Microsoft, Satya Nadella, a récemment participé à une interview dans laquelle Nadella a expliqué que le vrai problème du segment de l'IA n'est pas qu'il y ait une production excessive de puces, mais que nous n'avons pas assez d'énergie pour toutes les alimenter. C’est la confirmation de quelque chose que l’on voyait venir depuis longtemps.
Trop de puces pour si peu de puissance. Nadella et Sam Altman, PDG d'OpenAI, ont participé à l'interview. Au cours de cette conférence, le PDG de Microsoft a expliqué que « le plus gros problème que nous rencontrons actuellement n'est pas l'excès de capacité de calcul, mais l'énergie. C'est quelque chose comme la capacité de construire des (centres de données) suffisamment proches des sources d'énergie ».
Des jetons dans le tiroir. Nadella a poursuivi en soulignant que « si vous ne pouvez pas faire quelque chose comme ça (fournir suffisamment d'énergie), vous allez avoir un tas de puces dans votre inventaire que vous ne pourrez pas brancher. En fait, c'est mon problème en ce moment : ce n'est pas que je n'ai pas une quantité suffisante de puces : c'est en fait le fait que je n'ai pas d'endroits pour les brancher. »
Un problème qui se voyait venir. Microsoft, comme d'autres entreprises qui ont opté pour ce segment, tente depuis un certain temps de se préparer à cette demande énergétique. Il y a deux ans, à l’automne 2023, ils recherchaient déjà des experts pour diriger leur programme nucléaire. L’objectif : miser sur les réacteurs SMR innovants qui pourraient être une bonne solution pour alimenter les futurs datacenters. Google a été clair sur la même chose un an plus tard et a conclu un accord avec Kairos Power pour construire sept de ces réacteurs d'ici 2030.
Je le mijote, je le mange. Les grandes entreprises technologiques qui consacrent des milliards de dollars à la création de nouveaux centres de données aux États-Unis ont découvert que le réseau électrique actuel pourrait être insuffisant pour répondre à leurs besoins. Leur solution est de construire leurs propres usines, ce qu’ils espèrent pouvoir équilibrer la demande et la consommation imposées par ces gigantesques usines informatiques dans lesquelles travaillent des dizaines de milliers de GPU accélérateurs d’IA pour pouvoir servir les utilisateurs actuels (et futurs) des fonctions d’IA.
Des besoins croissants. Un rapport de l’Agence internationale de l’énergie (AIE) estime qu’entre 240 et 340 TWh d’énergie seront utilisés pour les centres de données en 2022 (hors cryptomonnaies). Cela représente une augmentation comprise entre 20 et 70 % par rapport à la consommation de 2015. Déjà en avril 2024, cette même organisation prévenait que plusieurs pays allaient multiplier cette consommation de manière significative.
Triple énergie ? Le PDG d'ARM, René Haas, a ensuite souligné que les besoins énergétiques allaient tripler, mais il ne pouvait probablement pas savoir comment les événements allaient se dérouler. Depuis lors, les sociétés d’IA ont annoncé des projets gigantesques – avec Stargate aux commandes – et consacreront d’énormes sommes d’argent à un pari incertain : que l’IA sera la grande révolution qui dirigera notre vie quotidienne.
À Simseo | NVIDIA et OpenAI viennent de réaliser un coup de maître. Celui qui les renforce et affaiblit tous les autres
