en raison de l'énorme demande d'intelligence artificielle
Lorsque nous envoyons une requête à une intelligence artificielle comme ChatGPT, les serveurs d'un centre de données calculent la réponse. Jusqu'à présent, le processus est similaire à n'importe quel service cloud, mais les modèles d'IA génératifs, qui ont été entraînés pour prédire les réponses, utilisent 33 fois plus d'énergie que les machines qui exécutent un algorithme traditionnel pour effectuer des tâches spécifiques.
« C'est extrêmement inefficace d'un point de vue informatique », a déclaré Sasha Luccioni, chercheuse à Hugging Face, à BBC News.
L’avertissement des éthiciens de l’IA
Une étude pré-publiée de Luccioni et d’autres auteurs met en garde contre le coût environnemental élevé des grands modèles d’IA, à la fois en raison de la quantité d’énergie qu’ils nécessitent et des tonnes de carbone qu’ils émettent.
Lorsque des entreprises comme Meta, OpenAI et Google entraînent leurs grands modèles de langage (Llama 3, GPT-4o, Gemini 1.5 Ultra), elles les mettent à profit. des centaines de milliers de cartes graphiques ou des TPU qui consomment d'énormes quantités d'électricité, d'autant plus qu'ils grossissent (de millions à des centaines de milliards de paramètres).
1 000 térawattheures dans les centres de données
Cependant, ce n’est qu’une partie de l’histoire. L'IA générative est de plus en plus populaire, ce qui signifie que des millions de personnes posent à chaque instant des requêtes qui font fonctionner la machinerie d'inférence : le processus par lequel les modèles d'apprentissage automatique font des prédictions ou des généralisations à partir de n'importe quelle requête.
Ce processus est tout aussi coûteux car générer du contenu à partir de zéro dans les centres de données du monde entier. Des datacenters consommant de plus en plus d’électricité : de 460 TWh en 2022 à plus de 1 000 TWh projetés d’ici 2026 ; approximativement la consommation électrique du Japon, qui compte 125 millions d'habitants.
Chez National Grid, le gestionnaire du réseau électrique du Royaume-Uni, ils sont inquiets. Ils estiment que la demande en électricité des centres de données sera multipliée par six dans les 10 prochaines années grâce à l’utilisation de l’IA, à laquelle il faut ajouter l’électrification des transports et du chauffage.
Aux États-Unis, les opérateurs de réseaux ont déjà ils commencent à en vouloirSelon le cabinet de conseil Wood Mackenzie : « Ils sont touchés par la demande en matière de centres de données exactement au même moment où se produit la résurgence (grâce à la politique gouvernementale) de l'industrie manufacturière nationale. »
Flirter avec l’énergie nucléaire
Les nouveaux petits modèles comme le Phi-3 ou le Gemini Nano, qui fonctionnent directement sur nos appareils, peut atténuer une partie du problème. Dans le même temps, les performances du matériel s’améliorent, ce qui permet d’économiser de l’énergie lors de la formation et de l’inférence.
Mais à mesure que le matériel s'améliore, les grandes technologies sont également en concurrence pour former des modèles plus grands et plus performants, nécessitant davantage de centres de données pour stocker les données de formation et plus d'énergie pour alimenter toute la puissance de calcul.
C'est un merlan qui se mord la queue. Et même si les centres de données disposent généralement d’installations d’autoconsommation, cela nécessitera des solutions plus drastiques. C'est pourquoi des entreprises comme Microsoft commencent à miser sur les réacteurs nucléaires modulaires tandis que Sam Altman, PDG d'OpenAI, investit dans la fusion nucléaire.
Images | Microsoft
À Simseo | Réponse d'un dirigeant de Meta à la consommation de l'IA : « il suffirait de deux réacteurs nucléaires pour la couvrir »