Les centres de données dans l'espace sont une horrible idée
L’intelligence artificielle a fait de l’énergie le nouveau goulot d’étranglement technologique. Et face à cette limite, certaines des plus grandes entreprises du monde ont commencé à relever les yeux. Pour donner quelques exemples, Jeff Bezos a parlé de « clusters géants d’IA en orbite autour de la planète » dans une décennie ou deux. Google a expérimenté l'exécution de calculs d'intelligence artificielle sur des satellites alimentés à l'énergie solaire. Nvidia soutient les startups qui souhaitent lancer des GPU dans l'espace. Même OpenAI a envisagé d’acheter une société de fusées pour assurer son propre chemin hors Terre.
La promesse est séduisante : des centres de données solaires fonctionnant 24 heures sur 24, sans réseaux électriques ni tours de refroidissement. Le problème est que, lorsque l’on passe de l’histoire à la physique, à l’ingénierie et aux chiffres, l’idée commence à s’effondrer.
Centres de données dans l'espace. Il y a une question qui entoure ce sujet : pourquoi les entreprises technologiques veulent-elles envoyer des centres de données dans l’espace ? La motivation est claire à première vue. Selon les données de l’Agence internationale de l’énergie, la consommation électrique des centres de données pourrait doubler d’ici 2030, portée par l’explosion de l’IA générative. La formation et l'exécution de modèles comme ChatGPT, Gemini ou Claude nécessitent d'énormes quantités d'électricité et d'énormes volumes d'eau pour le refroidissement. Dans de nombreux endroits, ces projets se heurtent déjà à une opposition locale ou à des limites physiques du réseau.
Dans ce contexte, l’espace apparaît comme une solution tentante. Sur certaines orbites, les panneaux solaires peuvent recevoir une lumière presque constante, sans nuages ni cycles nocturnes. De plus, comme l’expliquent Bezos et d’autres défenseurs, le vide spatial semble offrir un environnement idéal pour dissiper la chaleur sans avoir recours à des tours de refroidissement ou à des millions de litres d’eau douce. Selon cet argument, les centres de données spatiaux seraient plus efficaces, plus durables et, à terme, encore moins chers que les centres terrestres. Pour certains dirigeants, il ne s'agirait pas d'une excentricité, mais plutôt de « l'évolution naturelle » d'une infrastructure qui a déjà commencé avec les satellites de communications.
Quand les ingénieurs lèvent la main. Face à l’enthousiasme des déclarations des entreprises, plusieurs experts en ingénierie spatiale se sont montrés bien plus énergiques. Dans l'un des textes les plus cités sur le sujet, un ancien ingénieur de la NASA, titulaire d'un doctorat en électronique spatiale et d'une expérience directe dans les infrastructures d'IA chez Google, résume sans détour sa position : « C'est une idée terrible et elle n'a aucun sens ».
Sa critique n’est pas idéologique mais technique. Et cela commence avec le premier grand mythe, la prétendue abondance d’énergie dans l’espace.
L'énergie solaire n'est pas magique. Le plus grand système solaire jamais déployé en dehors de la Terre est la Station spatiale internationale. Selon les données de la NASA, ses panneaux couvrent environ 2 500 mètres carrés et génèrent, dans des conditions idéales, entre 84 et 120 kilowatts d'énergie, dont une partie est utilisée pour charger les batteries pendant les périodes à l'ombre. Pour situer les choses dans leur contexte, un seul GPU moderne pour l'IA consomme de l'ordre de 700 watts, et en pratique environ 1 kilowatt lorsque l'on prend en compte les pertes et les systèmes auxiliaires. Avec ces chiffres, une infrastructure de la taille de l’ISS pourrait à peine alimenter quelques centaines de GPU.
Comme l’explique cet ingénieur, un data center moderne peut héberger des dizaines, voire des centaines de milliers de GPU. Pour atteindre cette capacité, il faudrait lancer des centaines de structures de la taille et de la complexité de la Station spatiale internationale. Et même dans ce cas, chacun équivaudrait à quelques racks de serveurs terrestres. Par ailleurs, l’alternative nucléaire ne résout pas non plus le problème puisque les générateurs nucléaires utilisés dans l’espace, les RTG, produisent entre 50 et 150 watts. En d’autres termes, pas même assez pour alimenter un seul GPU.
L'espace n'est pas un réfrigérateur. Le deuxième grand argument contre les centres de données orbitaux est le refroidissement. On répète fréquemment que l'espace est froid, et que cela faciliterait l'évacuation de la chaleur des serveurs. Selon les ingénieurs, il s’agit de l’une des idées les plus trompeuses de tout le débat.
Sur Terre, le refroidissement est basé sur la convection : l'air ou l'eau évacuent la chaleur. Dans le vide de l’espace, la convection n’existe pas. Toute la chaleur doit être évacuée par rayonnement, un processus beaucoup moins efficace qui nécessite d'énormes surfaces. La NASA elle-même offre un exemple convaincant : le système de contrôle thermique actif de la Station spatiale internationale. Il s'agit d'un réseau extrêmement complexe de circuits d'ammoniac, de pompes, d'échangeurs et de radiateurs géants. Et pourtant, sa capacité de dissipation est de l’ordre de plusieurs dizaines de kilowatts. Selon les calculs de l'ingénieur susmentionné, refroidir la chaleur générée par les GPU hautes performances dans l'espace nécessiterait des radiateurs encore plus grands que les panneaux solaires qui les alimentent. Le résultat serait un satellite colossal, plus grand et plus complexe que l’ISS, pour mener à bien une tâche qui se résout beaucoup plus simplement sur Terre.
Et il y a un troisième facteur : les radiations. En orbite, les composants électroniques sont exposés à des particules chargées qui peuvent provoquer des erreurs binaires, des redémarrages inattendus ou des dommages permanents aux puces. Même si certains tests, comme ceux réalisés par Google avec ses TPU, montrent que certains composants peuvent résister à de fortes doses, les pannes ne disparaissent pas, elles ne font que se multiplier.
Les systèmes de blindage réduisent les risques, mais ajoutent de la masse. Et chaque kilo supplémentaire augmente le coût du lancement. De plus, le matériel d’IA a une durée de vie très courte, car il devient obsolète au bout de quelques années. Sur Terre, il est remplacé ; Dans l’espace, non. Comme le soulignent les critiques, un centre de données orbital devrait fonctionner pendant de nombreuses années pour amortir son coût, mais il le ferait avec du matériel abandonné beaucoup plus tôt.
Alors pourquoi continuent-ils à insister ? La réponse semble résider moins dans l’ingénierie actuelle que dans la stratégie à long terme. Tous ces projets dépendent de la condition que les coûts de lancement diminuent drastiquement. Certaines estimations parlent de seuils d'environ 200 dollars le kilo pour que les centres de données spatiaux puissent concurrencer économiquement les centres de données terrestres. Ce scénario repose sur des fusées entièrement réutilisables comme Starship, qui n’ont pas encore démontré cette capacité à l’échelle opérationnelle. Pendant ce temps, les énergies renouvelables terrestres continuent de devenir moins chères et les systèmes de stockage s’améliorent d’année en année.
De plus, l’histoire de l’espace remplit une autre fonction car elle positionne ces entreprises comme des visionnaires, attire les investissements et renforce l’idée que l’avenir passe inévitablement par elles. Comme pour l’énergie solaire spatiale, une promesse qui réapparaît de temps à autre depuis des décennies, la viabilité est toujours « dans 20 ans ».
Une très bonne idée sur le papier. Rien de tout cela ne signifie qu’il ne peut y avoir d’utilisations spécifiques de l’informatique en orbite : expériences, applications militaires ou tâches très spécifiques. Mais, comme le confirment les sources techniques et les chiffres de la NASA, penser que la majeure partie de l’infrastructure mondiale d’IA finira par flotter autour de la Terre relève aujourd’hui davantage d’un exercice d’imagination que d’une solution réaliste.
La plus grande question n’est peut-être pas de savoir si nous pouvons emmener les centres de données dans l’espace, mais pourquoi il est plus intéressant d’en rêver que de se confronter aux limites énergétiques ici-bas. Car, en fin de compte, l’intelligence artificielle peut regarder le ciel autant qu’elle veut, mais elle dépend toujours de lois physiques qui ne comprennent pas les histoires inspirantes.
Images | Freepik et Unsplash
Simseo | Nous parlons théoriquement de centres de données dans l’espace depuis des mois. Une entreprise a déjà un projet pour la créer en 2027
