Sora 2, récemment lancé par OpenAI, rend l'impact environnemental de l'IA impossible à ignorer
Le récent déploiement par OpenAI de son nouveau générateur vidéo Sora 2 marque un tournant décisif dans l'IA. Sa capacité à générer des minutes de séquences hyperréalistes à partir de quelques lignes de texte est étonnante et a suscité des inquiétudes immédiates quant à la vérité en politique et dans le journalisme.
Mais Sora 2 se déploie lentement en raison de ses énormes exigences informatiques, qui soulèvent une question tout aussi pressante concernant l’IA générative elle-même : quels sont ses véritables coûts environnementaux ? La génération de vidéos les aggravera-t-elle encore ?
Le récent lancement du projet Stargate, une coentreprise de 500 milliards de dollars entre OpenAI, Oracle, SoftBank et MGX, visant à construire d'immenses centres de données d'IA aux États-Unis, souligne les enjeux. Alors que les entreprises s’efforcent d’étendre leur capacité de calcul à cette échelle, la consommation d’énergie de l’IA va exploser.
Le débat sur l’impact environnemental de l’IA reste l’un des plus tendus en matière de politique technologique. Selon ce que nous lisons, l’IA est soit une crise écologique en devenir, soit une erreur d’arrondi dans la consommation énergétique mondiale. Alors que l’IA évolue rapidement vers la vidéo, il est plus urgent que jamais de clarifier son empreinte.
Deux récits concurrents
D’un certain point de vue, l’IA devient rapidement une contrainte majeure pour les systèmes énergétiques et hydriques mondiaux.
Alex de Vries-Gao, un chercheur qui suit depuis longtemps la consommation électrique du minage de Bitcoin, a noté à la mi-2025 que l’IA était en passe de la surpasser. Il a estimé que l’IA représentait déjà environ 20 % de la consommation électrique mondiale des centres de données ; ce chiffre devrait doubler d'ici la fin de l'année.
Selon l’Agence internationale de l’énergie, les centres de données ont consommé l’année dernière jusqu’à 1,5 % de la consommation mondiale d’électricité, la consommation augmentant quatre fois plus vite que la demande mondiale totale. L’AIE prévoit que l’utilisation des centres de données fera plus que doubler d’ici 2030, le traitement par l’IA étant le principal moteur de croissance.
Les recherches citées par le Technology Review du MIT concordent, estimant que d'ici 2028, la consommation électrique de l'IA pourrait dépasser « toute l'électricité actuellement utilisée par les centres de données américains », soit suffisamment pour alimenter 22 % des foyers américains chaque année.
Des quantités « énormes »
La consommation d’eau de l’IA est également frappante. Les centres de données dépendent de l'eau ultra pure pour garder les serveurs frais et exempts d'impuretés. Les chercheurs ont estimé que la formation GPT-3 aurait consommé 700 000 litres d'eau douce dans les installations américaines de Microsoft. Ils prédisent que la demande mondiale en IA pourrait atteindre quatre à six milliards de mètres cubes par an d’ici 2027.
La rotation du matériel ajoute encore à la pression. Une étude de 2023 a révélé que la fabrication de puces nécessite « d’énormes quantités » d’eau ultra pure, des processus chimiques énergivores et des minéraux rares tels que le cobalt et le tantale. La fabrication d’unités de traitement graphique haut de gamme – les moteurs qui alimentent le boom de l’IA – a une empreinte carbone beaucoup plus importante que la plupart des produits électroniques grand public.
La génération d'une image nécessite l'électricité d'un micro-ondes fonctionnant pendant cinq secondes, tandis que la création d'un clip vidéo de cinq secondes prend autant d'électricité qu'un micro-ondes fonctionnant pendant plus d'une heure.
Le prochain passage du texte et de l’image à la vidéo haute définition pourrait considérablement accroître l’impact de l’IA. Les premiers tests le confirment : la consommation d'énergie des modèles texte-vidéo quadruple lorsque la durée de la vidéo double.
Les arguments en faveur de la perspective
D’autres considèrent que l’alarme est exagérée. Les analystes du Center for Data Innovation, un groupe de réflexion technologique et politique, affirment que de nombreuses estimations de la consommation d'énergie de l'IA reposent sur des extrapolations erronées. Le matériel GPU devient de plus en plus efficace chaque année et une grande partie de l’électricité des nouveaux centres de données proviendra d’énergies renouvelables.
Une analyse comparative récente place l'empreinte de l'IA dans son contexte. La production d'une séance de questions-réponses typique sur un chatbot consomme environ 2,9 wattheures (Wh), soit environ 10 fois une recherche Google. Google a récemment affirmé qu'une invite Gemini typique n'utilisait que 0,24 Wh et 0,25 ml d'eau, bien que des experts indépendants notent que ces chiffres omettent l'énergie indirecte et l'eau utilisée pour la production d'électricité.
Le contexte est essentiel. Une heure de streaming vidéo haute définition sur Netflix consomme environ 100 fois plus d’énergie que la génération d’une réponse textuelle. L'empreinte d'une requête d'IA est minime, mais les centres de données en traitent désormais des milliards par jour et des requêtes vidéo plus exigeantes se profilent à l'horizon.
Le paradoxe de Jevon
Cela permet de faire la distinction entre la formation et l’utilisation de l’IA. Les modèles de formation pionniers tels que GPT-4 ou Claude Opus 3 nécessitaient des milliers de puces graphiques fonctionnant pendant des mois, consommant des gigawattheures d'énergie.
L’utilisation d’un modèle consomme une infime quantité d’énergie par requête, mais cela se produit des milliards de fois par jour. À terme, l’énergie générée par l’utilisation de l’IA dépassera probablement la formation.
Le coût le moins visible peut provenir de la production de matériel. Chaque nouvelle génération de puces nécessite de nouvelles lignes de fabrication, des apports de minéraux lourds et un refroidissement avancé. L'économiste italien Marcello Ruberti observe que « chaque cycle de mise à niveau réinitialise effectivement l'horloge du carbone » alors que les usines reconstruisent à partir de zéro des équipements hautement purifiés.
Et même si les modèles d’IA deviennent plus efficaces, l’énergie totale continue d’augmenter. En économie, c’est ce qu’on appelle le paradoxe de Jevons : dans la Grande-Bretagne du XIXe siècle, la consommation de charbon augmentait à mesure que le coût de son extraction diminuait. Comme l’ont noté les chercheurs en IA, à mesure que les coûts par requête diminuent, les développeurs sont incités à trouver de nouvelles façons d’intégrer l’IA dans chaque produit. Le résultat est davantage de centres de données, de puces et d’utilisation totale des ressources.
Un problème d'échelle
L’IA est-elle une menace écologique ou un risque gérable ? La vérité se situe quelque part entre les deux.
Une seule invite consomme une énergie négligeable, mais les systèmes qui la permettent – vastes centres de données, fabrication constante de puces, refroidissement 24 heures sur 24 – remodèlent les modèles mondiaux d’énergie et d’eau.
Les dernières perspectives de l'Agence internationale de l'énergie prévoient que la demande en énergie des centres de données pourrait atteindre 1 400 térawattheures d'ici 2030. Cela équivaut à ajouter plusieurs pays de taille moyenne au réseau mondial. L’IA comptera pour un quart de cette croissance.
La transparence est vitale
La plupart des chiffres qui circulent sur la consommation énergétique de l’IA ne sont pas fiables, car les entreprises d’IA en divulguent très peu. Les données limitées qu’ils publient utilisent souvent des mesures incohérentes ou compensent la comptabilité qui masque les impacts réels.
Une solution évidente serait d’imposer des règles de divulgation : des rapports standardisés et basés sur la localisation de l’énergie et de l’eau utilisées pour entraîner et faire fonctionner les modèles. La loi européenne sur l'intelligence artificielle oblige les développeurs de systèmes « à fort impact » à documenter les calculs et la consommation d'énergie.
Des mesures similaires ailleurs pourraient guider la construction de nouveaux centres de données, en favorisant les régions riches en énergies renouvelables et en eau, ce qui pourrait encourager des cycles de vie du matériel plus longs au lieu de rafraîchissements annuels des puces.
Équilibrer créativité et coût
L’IA générative peut aider à libérer une créativité extraordinaire et offrir une réelle utilité. Mais chaque image, paragraphe ou vidéo « libre » a des coûts matériels et énergétiques cachés.
Reconnaître ces coûts ne signifie pas que nous devons arrêter l’innovation. Cela signifie que nous devons exiger de la transparence sur l’ampleur du coût environnemental et sur qui le paie, afin de lutter contre les impacts environnementaux de l’IA.
Alors que Sora 2 commence à remplir les flux sociaux de visuels très réalistes, la question ne sera pas de savoir si l'IA consomme plus d'énergie que Netflix, mais si nous pouvons étendre notre infrastructure numérique de manière suffisamment responsable pour faire de la place aux deux.
