Le sombre secret de ChatGPT et de Bard n’est pas ce qu’ils ont tort et inventé.  C'est ce qu'ils contaminent

Les centres de données consomment déjà beaucoup d’énergie. L’IA fera tripler ce chiffre d’ici 2030

Nous aimons utiliser des outils comme ChatGPT ou Midjourney, mais nous savons depuis longtemps que cela n'est pas du tout gratuit. La capacité de calcul nécessaire pour répondre à nos demandes est énorme, tout comme la quantité d'énergie (et d'eau) estimée nécessaire pour répondre à la demande pour ce type de solutions. Chez ARM, on pense que les choses vont devenir inquiétantes très bientôt.

L'IA est très bonne, mais elle a un problème. Le PDG d'ARM, René Haas, a publié hier une réflexion dans la salle de presse d'Arm dans laquelle il souligne que l'intelligence artificielle « a le potentiel de dépasser toutes les innovations transformatrices créées au cours du siècle dernier ». Les avantages que cela peut nous apporter sont énormes, dit-il, mais cela a un effet secondaire.

Soif insatiable. Haas explique que « pour exécuter ces charges de travail complexes d'IA, la quantité de calcul nécessaire dans les centres de données du monde entier doit croître de façon exponentielle » et que « le besoin insatiable de calcul » nécessitera une quantité d'énergie « immense » pour alimenter tous ces centres de données. .

Plus d'énergie que toute l'Inde. Selon leurs données, les centres de données consomment dans le monde environ 460 TWh d’électricité par an, ce qui équivaut à tout ce que l’Allemagne consomme en un an. Si les estimations de Haas sont respectées, en 2030, cette consommation sera multipliée par trois, ce qui signifie que les centres de données mondiaux consommeront plus que l'Inde, le pays le plus peuplé du monde.

Des chiffres plausibles ?. L’Agence internationale de l’énergie (AIE) estime qu’entre 240 et 340 TWh d’énergie seront utilisés pour les centres de données en 2022 (hors cryptomonnaies). Cela représente une augmentation comprise entre 20 et 70 % par rapport à 2015. Prédire que cette consommation triplera (croissance de 200 %) en 2030 semble peut-être un peu aventureux, mais ce marché connaît certainement une croissance exagérée et ces prévisions pourraient se réaliser et même se dépasser.

L'AIE elle-même admet que certains pays comme le Danemark multiplieront par six la consommation de leurs centres de données et représenteront pas moins de 15 % de la consommation énergétique de ce pays. D’autres études antérieures font état de prévisions encore pires concernant les besoins énergétiques des centres de données à l’échelle mondiale.

Nous nous plaignions du Bitcoin. L’inquiétude face à cette consommation vorace d’énergie devient désormais encore plus notable que celle qui touche les cryptomonnaies, et notamment le bitcoin, qui a toujours été très critiqué pour l’énorme consommation d’énergie qu’il impose. Selon l’AIE, entre 100 et 150 TWh d’énergie ont été consommés sur ce seul marché en 2022, soit entre 2 300 et 3 500 % de plus qu’en 2015, où ils ne suscitaient pratiquement aucun intérêt. Il est probable que ce segment augmentera également ses besoins énergétiques – cela influencera également cela – mais il est difficile d’estimer dans quelle mesure.

ARM dénonce le problème, et se vante d'avoir la solution. La réflexion de Haas est intéressante, mais elle perd vite de sa force car après avoir dénoncé cette réalité, il montre le torse en affirmant qu'ARM peut « réimaginer le futur de l'IA » avec ses conceptions de puces axées sur l'efficacité. Donnez plusieurs exemples de puces IA comme la Graviton d'AWS, la Cobalt d'Azure, l'Ampere Altra Max d'Oraclae Cloud ou l'Axion de Google Cloud. Dans tous les cas, des processeurs ARM Neoverse sont utilisés, qui seront également utilisés dans NVIDIA Grace.

L’efficacité compte (et de plus en plus). Pourtant, l’argument est tout à fait valable : étant donné l’énorme besoin de capacité de calcul pour entraîner et utiliser de grands modèles d’IA, l’urgence de disposer de puces de plus en plus efficaces est énorme. ARM a certainement ici beaucoup à gagner par rapport à des constructeurs comme NVIDIA, Intel ou AMD qui ne se démarquent traditionnellement pas par des puces aussi performantes que celles proposées par la société britannique. Soit cela, soit accepter la solution de cet ingénieur objectif qui préconise de profiter d'une technologie qui peut certainement être intéressante pour répondre à ces besoins : l'énergie nucléaire.

Images | Morta0781 avec Midjourney

À Simseo | L'étonnante histoire d'ARM, l'architecture qui triomphe dans les téléphones mobiles et qui est née il y a plus de 30 ans chez Acorn Computer