L’IA gourmand par l’énergie peut-elle aider à réduire notre consommation d’énergie?
Il faut 10 fois plus d’électricité pour que Chatgpt réponde à une invite que pour que Google effectue une recherche standard. Pourtant, les chercheurs ont du mal à comprendre les implications énergétiques de l’intelligence artificielle générative à la fois et à l’avenir.
Peu de gens réalisent que l’empreinte carbone de la technologie numérique est à égalité avec celle de l’industrie aérospatiale, représentant entre 2% et 4% des émissions mondiales de carbone. Et cette empreinte carbone numérique se développe à un rythme rapide. En ce qui concerne la consommation d’énergie, les environ 11 000 centres de données en fonctionnement consomment aujourd’hui autant d’énergie que tout le pays de la France en 2022, soit environ 460 TWH. L’adoption généralisée de l’IA génératrice fera-t-elle la montée en flèche de ces chiffres?
La nouvelle technologie affectera clairement la quantité d’énergie consommée dans le monde entier, mais exactement comment est difficile à quantifier. « Nous devons connaître le coût total des systèmes d’IA génératifs pour pouvoir les utiliser aussi efficacement que possible », explique Manuel Cubero-Castan, chef de projet sur IT durable à EPFL.
Il croit que nous devrions considérer l’ensemble du cycle de vie de la technologie générative de l’IA, de l’extraction des minéraux et de l’assemblage des composants – des activités dont l’impact concerne non seulement l’énergie – à l’élimination des tonnes de déchets électroniques générés, qui est souvent déversée illégalement. De ce point de vue, les ramifications environnementales de l’IA générative vont bien au-delà de la puissance et de la consommation d’eau des seuls centres de données.
Le coût de la formation
Pour l’instant, la plupart des données disponibles sur la consommation d’énergie de la technologie numérique se rapportent uniquement aux centres de données. Selon l’International Energy Agency (AIE), ces centres (à l’exclusion des réseaux de données et de l’exploitation des crypto-monnaies) ont consommé entre 240 TWH et 340 TWH en 2022, soit 1% à 1,3% du total mondial. Pourtant, même si le nombre de centres augmente de 4% par an, leur utilisation globale de l’énergie n’a pas beaucoup changé entre 2010 et 2020, grâce aux améliorations de l’efficacité énergétique.
Avec une IA générative qui sera adoptée à grande échelle, cela changera certainement. La technologie d’IA générative est basée sur des modèles de grandes langues (LLM) qui utilisent la puissance de deux manières. Premièrement, pendant qu’ils sont formés – une étape qui implique de gérer des téraoctets de données via des algorithmes afin qu’ils apprennent à prédire les mots et les phrases dans un contexte donné. Jusqu’à récemment, ce fut l’étape la plus à forte intensité énergétique.
Deuxièmement, bien qu’ils traitent les données en réponse à une invite. Maintenant que les LLM sont mis en œuvre à grande échelle, c’est l’étape nécessitant le plus d’énergie. Les données récentes de Meta et Google suggèrent que cette étape représente désormais 60% à 70% de la puissance utilisée par les systèmes d’IA génératifs, contre 30% à 40% pour la formation.
Chatgpt Query vs Recherche Google conventionnelle
Une requête Chatgpt consomme environ 3 WH de puissance, tandis qu’une recherche Google conventionnelle utilise 0,3 WH, selon l’AIE. Si tous les 9 milliards de recherches Google effectuées quotidiennement étaient passées à Chatgpt, cela augmenterait l’exigence de puissance totale de 10 TWH par an.
Goldman Sachs Research (GSR) estime que la quantité d’électricité utilisée par les centres de données gonflera de 160% au cours des cinq prochaines années, et qu’ils représenteront 3% à 4% de la consommation mondiale d’électricité. De plus, leurs émissions de carbone doubleront probablement entre 2022 et 2030.
Selon les chiffres de l’AIE, la demande totale de puissance en Europe a diminué pendant trois ans consécutives, mais a repris en 2024 et devrait revenir aux niveaux de 2021 – dont 2 560 TWH par an – en 2026. Près d’un tiers de cette augmentation sera due aux centres de données. GSR estime que la demande d’électricité liée à l’IA dans les centres de données augmentera d’environ 200 TWH par an entre 2023 et 2030. D’ici 2028, l’IA devrait représenter près de 19% de la consommation d’énergie des centres de données.
Cependant, l’expansion rapide de l’IA génératrice pourrait mal traduire ces prévisions. La société chinoise Deepseek fait déjà bouger les choses – il a introduit un programme d’IA génératif fin janvier qui utilise moins d’énergie que ses homologues américains pour les deux algorithmes de formation et répondant aux invites.
Un autre facteur qui pourrait endiguer la croissance de la demande d’énergie d’IA est la quantité limitée de ressources minières disponibles pour la production de puces. Nvidia domine actuellement le marché des puces d’IA, avec une part de marché de 95%. Les trois millions de puces Nvidia H100 installées dans le monde ont utilisé 13,8 TWH en 2024 – la même quantité que le Guatemala. D’ici 2027, les copeaux Nvidia pourraient brûler de 85 à 134 TWH de puissance. Mais l’entreprise pourra-t-elle les produire à cette échelle?
Pas toujours un choix durable
Un autre facteur à considérer est de savoir si nos réseaux d’électricité vieillissants pourront soutenir la charge supplémentaire. Beaucoup d’entre eux, à l’échelle nationale et locale, sont déjà poussés à la limite pour répondre à la demande actuelle. Et le fait que les centres de données soient souvent concentrés géographiquement complique davantage les choses. Par exemple, les centres de données représentent 20% de la consommation d’énergie en Irlande et plus de 25% dans l’État américain de Virginie. « La construction de centres de données dans les régions où les alimentations en eau et en électricité sont déjà tendues peuvent ne pas être le choix le plus durable », explique Cubero-Castan.
Il y a aussi le problème des coûts. Si Google voulait être en mesure de traiter les requêtes généatives de l’IA, il devrait créer 400 000 serveurs supplémentaires – à un prix d’environ 100 milliards de dollars, ce qui réduirait sa marge de fonctionnement à zéro. Un scénario improbable.
Avantages inexploités
Une partie de l’augmentation de la consommation d’énergie causée par l’IA générative pourrait être compensée par les avantages de l’IA en général. Bien que les algorithmes de formation nécessitent un investissement, il pourrait être payant en termes d’économies d’énergie ou de prestations climatiques.
Par exemple, l’IA pourrait accélérer le rythme de l’innovation dans le secteur de l’énergie. Cela pourrait aider les utilisateurs à mieux prédire et à réduire leur consommation d’énergie; permettre aux services publics de gérer leurs réseaux électriques plus efficacement; améliorer la gestion des ressources; et permettre aux ingénieurs d’exécuter des simulations et de stimuler les avancées à la pointe de la modélisation, de l’économie climatique, de l’éducation et de la recherche fondamentale.
Que nous soyons en mesure de tirer parti des avantages de ce type d’innovation dépendra de ses impacts, de la façon dont la nouvelle technologie est étendue par les consommateurs et de la façon dont les décideurs politiques le comprennent et les réduisaient des lois pour le gouverner.
Les centres de données de nouvelle génération en cours de construction aujourd’hui sont plus économes en énergie et permettent une plus grande flexibilité dans la façon dont leur capacité est utilisée. De même, Nvidia s’efforce d’améliorer les performances de ses puces tout en réduisant leurs besoins en puissance.
Et nous ne devons pas oublier le potentiel de l’informatique quantique. En ce qui concerne les centres de données, l’AIE calcule que 40% de l’électricité qu’ils utilisent va au refroidissement, 40% pour exécuter des serveurs et 20% vers d’autres composants système, y compris le stockage et la communication des données.
À EPFL, le professeur Mario Paolone dirige l’initiative Heating Bits pour construire un démonstrateur pour tester de nouvelles méthodes de refroidissement. Cinq groupes de recherche et le Centre EcoCloud se sont associés à l’initiative, dans le but de développer de nouveaux processus de récupération de chaleur, de cogénération, d’incorporation d’énergie renouvelable et d’optimisation de l’utilisation du serveur.
Garder la vue d’ensemble à l’esprit
Un autre moyen (indolore et libre) de réduire la consommation d’énergie des centres de données consiste à éliminer l’encombrement. Chaque jour, les entreprises du monde entier génèrent 1,3 billion de gigaoctets de données, dont la plupart se retrouvent comme des données sombres ou des données qui sont collectées et stockées mais jamais utilisées. Les réadapres de la Loughborough Business School estiment que 60% des données conservées aujourd’hui sont des données sombres, et les stocker émet autant de carbone que trois millions de vols de Londres et New York. La journée de nettoyage numérique de cette année a eu lieu le 15 mars, mais vous n’avez pas à attendre le printemps pour faire votre nettoyage!
Cubero-Castan nous prévient cependant de garder à l’esprit la situation dans son ensemble: « Si nous commençons à utiliser la technologie de l’IA générative à grande échelle, avec des LLM en constante évolution, les gains énergétiques qui en résultent seront loin d’être suffisants pour réaliser une réduction des émissions de carbone globales.
L’impact énergétique de l’IA génératif ne doit pas être négligé, mais pour l’instant il n’est que marginal au niveau mondial – cela ajoute simplement à la consommation d’énergie déjà lourde de la technologie numérique en général. Les vidéos représentent actuellement 70% à 80% du trafic de données dans le monde, tandis que d’autres contributeurs majeurs sont des jeux en ligne multijoueurs et une crypto-monnaie. Les principaux moteurs de la demande d’électricité sont aujourd’hui la croissance économique, les véhicules électriques, la climatisation et la fabrication. Et la majeure partie de ce pouvoir provient toujours de combustibles fossiles.