Alimenter l’IA pourrait consommer autant d’électricité qu’un petit pays
L’intelligence artificielle (IA) promet d’aider les codeurs à coder plus rapidement, les conducteurs à conduire de manière plus sûre et à rendre les tâches quotidiennes moins chronophages. Mais dans un commentaire publié le 10 octobre dans la revue Joulele fondateur de Digiconomist démontre que l’outil, s’il était largement adopté, pourrait avoir une empreinte énergétique importante, qui pourrait à l’avenir dépasser la demande en énergie de certains pays.
« Au vu de la demande croissante de services d’IA, il est très probable que la consommation d’énergie liée à l’IA augmentera considérablement dans les années à venir », déclare l’auteur Alex de Vries, titulaire d’un doctorat. candidat à la Vrije Universiteit Amsterdam.
Depuis 2022, l’IA générative, qui peut produire du texte, des images ou d’autres données, a connu une croissance rapide, y compris ChatGPT d’OpenAI. La formation de ces outils d’IA nécessite d’alimenter les modèles avec une grande quantité de données, un processus énergivore. Hugging Face, une société de développement d’IA basée à New York, a rapporté que son outil d’IA de génération de texte multilingue consommait environ 433 mégawattheures (MWH) pendant la formation, soit suffisamment pour alimenter 40 foyers américains moyens pendant un an.
L’empreinte énergétique de l’IA ne s’arrête pas à la formation. L’analyse de De Vries montre que lorsque l’outil est utilisé (générant des données basées sur des invites), chaque fois que l’outil génère un texte ou une image, il utilise également une quantité importante de puissance de calcul et donc d’énergie. Par exemple, ChatGPT pourrait coûter 564 MWh d’électricité par jour.
Alors que les entreprises du monde entier s’efforcent d’améliorer l’efficacité du matériel et des logiciels d’IA pour rendre l’outil moins gourmand en énergie, de Vries affirme qu’une augmentation de l’efficacité des machines augmente souvent la demande. En fin de compte, les progrès technologiques entraîneront une augmentation nette de l’utilisation des ressources, un phénomène connu sous le nom de paradoxe de Jevons.
« En rendant ces outils plus efficaces et plus accessibles, nous pourrions simplement permettre à davantage d’applications et à davantage de personnes de les utiliser », explique de Vries.
Google, par exemple, a intégré l’IA générative dans son service de messagerie et teste actuellement son moteur de recherche avec l’IA. L’entreprise traite actuellement jusqu’à 9 milliards de recherches par jour. Sur la base de ces données, de Vries estime que si chaque recherche Google utilisait l’IA, elle aurait besoin d’environ 29,2 TWh d’énergie par an, ce qui équivaut à la consommation électrique annuelle de l’Irlande.
Il est peu probable que ce scénario extrême se produise à court terme en raison des coûts élevés associés aux serveurs IA supplémentaires et aux goulots d’étranglement dans la chaîne d’approvisionnement des serveurs IA, explique de Vries. Mais la production de serveurs IA devrait croître rapidement dans un avenir proche. D’ici 2027, la consommation mondiale d’électricité liée à l’IA pourrait augmenter de 85 à 134 TWh par an, sur la base des projections de production de serveurs d’IA.
Le montant est comparable à la consommation annuelle d’électricité de pays comme les Pays-Bas, l’Argentine et la Suède. De plus, l’amélioration de l’efficacité de l’IA pourrait également permettre aux développeurs de réutiliser certaines puces de traitement informatique pour l’utiliser, ce qui pourrait encore augmenter la consommation électrique liée à l’IA.
« La croissance potentielle souligne que nous devons être très attentifs à la raison pour laquelle nous utilisons l’IA. Elle est gourmande en énergie, nous ne voulons donc pas l’utiliser dans toutes sortes de choses là où nous n’en avons pas réellement besoin », déclare de Vries. .