« débranchez-les » 18 jours par an
Les gros titres quotidiens nous bombardent d’une soif insatiable d’intelligence artificielle, décrivant un avenir dans lequel les centres de données dévoreront notre infrastructure. Cependant, la réalité cache une ironie fascinante : la même technologie qui encombre aujourd’hui les câbles pourrait être notre plus grande alliée. Selon les estimations de , l’IA optimisera les systèmes mondiaux, permettant d’économiser plus de 3 700 TWh d’ici 2030, soit près de quatre fois l’énergie consommée par tous les centres de données de la planète réunis.
Pas tous les jours. Mais pour en arriver là, il faut d’abord allumer les machines dès aujourd’hui. Et la solution est étonnamment analogique. Paweł Czyżak, du centre d’analyse Ember et l’une des voix les plus influentes de la transition énergétique européenne, résume la situation avec une idée simple : un centre de données n’a pas besoin de fonctionner à pleine puissance à chaque heure de l’année. Face à l’effondrement du système, le nouveau dogme de survie de l’industrie est clair : « Connectez-vous maintenant et opérez de manière flexible ».
La crise cardiaque du réseau. Nous avons été victimes de ce que nous appelions autrefois la « tyrannie 24 heures sur 24, 7 jours sur 7 ». Les algorithmes ne dorment pas et exigent un approvisionnement ininterrompu. Cette voracité a provoqué une crise cardiaque dans les épicentres de données traditionnels en Europe (les marchés « FLAP-D » : Francfort, Londres, Amsterdam, Paris et Dublin), paralysant presque complètement les nouveaux déploiements. Le goulot d’étranglement ne réside plus dans les micropuces de dernière génération ; il manque des transformateurs et des électrons libres.
À cet effondrement physique s’ajoute celui bureaucratique. L’Institut universitaire européen (EUI) prévient que les files d’attente de connexion constituent un entonnoir critique : dans des pays comme le Royaume-Uni ou l’Italie, la capacité demandée dépasse de plus de 10 fois le pic de la demande maximale nationale. Tout cela est aggravé par les projets spéculatifs « zombies » qui bloquent l’entrée aux développeurs légitimes. Les obstacles sont, comme le détaille la récente étude de Camus, encoord et Princeton ZERO Lab, un double mur : il y a un manque de câbles pour les opérations quotidiennes et un manque de capacités propres construites pour assurer la sauvegarde.
La flexibilité comme bouée de sauvetage. Est-il possible de « désactiver » une partie du cerveau de l’IA sans que le système ne plante ? Oui. Un essai récent mené par Nebius, Emerald AI et National Grid a montré qu’un cluster d’IA était capable de réduire sa consommation de 30 % en seulement 40 secondes pour soulager le réseau, tout en conservant intactes les tâches critiques. Même Google se vante déjà d’avoir atteint 1 GW de « réponse à la demande » en combinant batteries et capacité de déplacer des charges entre régions.
Comme l’explique Czyżak, déplacer seulement 5 % de la charge (l’équivalent de quelques heures critiques par an) débloque massivement le réseau. En fait, cette stratégie permettrait d’économiser plus de gaz naturel qu’un pays comme le Danemark n’en consomme pour la production d’électricité, en évitant aux compagnies d’électricité de devoir faire fonctionner des centrales à cycle combiné coûteuses et polluantes pour couvrir les pointes de demande. De son côté, le rapport Camus et Princeton propose d’étendre cette mesure à l’aide de deux mécanismes :
- Connexions flexibles : Le centre fonctionne normalement 99 % du temps, mais dans les rares 40 ou 70 heures par an de saturation extrême du réseau, il réduit ses ressources informatiques ou utilise ses propres batteries.
- Accords BYOC () : les grandes technologies financent leur propre capacité d’énergie propre au lieu d’attendre que l’État modernise les infrastructures.
La combinaison est magique : elle réduit le temps d’attente pour se connecter au réseau de 7 à seulement 2 ans. Pour une entreprise technologique, cela signifie commencer à facturer trois ans plus tôt, générant des rendements nets compris entre 1 000 et 4 000 millions de dollars par site.
Le citoyen ne paiera pas la facture. Sur le plan social, la transition vers ce modèle flexible apporte une excellente nouvelle pour le citoyen moyen. Une modélisation détaillée réalisée par le ZERO Lab de Princeton confirme qu’un centre de données flexible (dans le cadre des programmes BYOC) assume pratiquement tous les coûts supplémentaires qu’il génère pour le système électrique.
Autrement dit, les milliards nécessaires à l’hébergement du cloud ne seront pas transférés sur les factures d’électricité des ménages. Au contraire, en tirant le meilleur parti du réseau existant au lieu de construire massivement de nouvelles lignes, les coûts fixes sont répartis entre un plus grand nombre d’acteurs. En Espagne, des organisations comme la CNMC appliquent déjà des « permis d’accès flexibles », obligeant par la loi à accepter des coupes contrôlées en cas d’urgence pour protéger la stabilité du pays.
Le plug qui dominera le monde. Dans la course frénétique géopolitique et commerciale pour dominer l’avenir de l’intelligence artificielle, le récit a changé. Il ne suffit plus de concevoir la puce la plus rapide ou de disposer des ingénieurs les plus brillants. Aujourd’hui, la victoire absolue appartient à celui qui dispose d’une prise gratuite.
Mais plutôt que de brûler désespérément du gaz ou d’attendre une décennie que les gouvernements enfouissent des milliers de kilomètres de cuivre, l’industrie a trouvé une issue pragmatique. Exiger de la flexibilité de la part des entreprises leur permet non seulement d’allumer leurs serveurs des années plus tôt ; Il protège les factures des citoyens, étouffe les infrastructures du XXe siècle et bannit le dangereux fantôme d’une Europe obligée de retomber dans sa vieille dépendance aux combustibles fossiles.
Images | Photo de Scott Rodgerson sur Unsplash
Simseo | Il n’y a pas d’énergie pour alimenter tant de centres de données et la conséquence est claire : la moitié de ceux prévus pour 2026 aux États-Unis sont en danger
