AI Tech Data

Space Computing: perché spostare i data center nello spazio rimane ancora un miraggio

Mentre i colossi tech investono nel nucleare e in nuovi sistemi di raffreddamento, Musk ipotizza di spostare i server in orbita. Questa soluzione appare però tecnologicamente proibitiva a causa dell'impossibilità di manutenzione e della massa critica dei lanci necessari
Gemini Satellites Space

La notizia è abbastanza recente: Elon Musk ha ‘fuso’ le sue due società – SpaceX e xAI – in una sola. In realtà le due società sono ancora entità separate, ma Musk le gestisce sempre più come compartimenti stagni di un ‘super-organismo’, per raggiungere quello che ha definito come obiettivo: “creare un ecosistema tecnologico autosufficiente e a ciclo chiuso”.

Il tutto andrebbe visto come una condizione necessaria per colonizzare Marte: servono robot e sistemi che possano decidere in millisecondi senza attendere i 20 minuti di ritardo del segnale radio dalla Terra. Ecco che xAI fornirebbe il ‘cervello’ per i rover e le infrastrutture marziane di SpaceX.

Peccato che quasi allo stesso tempi i sogni marziani di Musk siano stati accantonati a favore di un secondo ‘sbarco’ sulla Luna: ben poco attraente in termini di modernità, visto che sulla Luna ci eravamo arrivati con le tecnologia degli Anni 60. Ecco allora le ‘bolle lunari’ che rendono la luna abitabile dagli uomini, sfruttabile economicamente e produttiva per porre le fondamenta per la colonizzazione dello spazio.

Il New York Times ha scritto martedì scorso che xAI avrebbe bisogno di una fabbrica sulla Luna per costruire satelliti dotati di intelligenza artificiale e di ‘un’enorme catapulta’ per lanciarli nello spazio. Qui la science fiction domina…

Ma non è ancora nulla rispetto al progetto di costruire un vasto sistema satellitare, dove un milione di satelliti orbitanti intorno alle terra, traendo l’energia necessari dal Sole, avrebbero liberato la Terra dei problemi legati all’alimentazione dei data center sempre più energivori.

La situazione attuale: energia e acqua a rischio

Il fabbisogno energetico dei data center è entrato in una fase di crescita esplosiva. Se fino a pochi anni fa il consumo era rimasto relativamente stabile grazie ai continui miglioramenti dell’efficienza, l’avvento dell’Intelligenza Artificiale generativa ha cambiato radicalmente le carte in tavola.

Guardando a un futuro di pochi anni avanti, secondo l’International Energy Agency (IEA), il consumo globale dei data center è destinato a più che raddoppiare in tempi brevissimi. In particolare, si prevede che entro il 2030 la domanda supererà i 945 TWh (terawattora), una cifra superiore all’intero consumo elettrico attuale del Giappone. Alcune stime più aggressive, quali quelle di Goldman Sachs, ipotizzano addirittura un aumento del 165% rispetto ai livelli del 2023. Se oggi i data center pesano per circa l’1,5-2% della domanda elettrica mondiale, entro il 2035 questa quota potrebbe salire fino al 13% in mercati maturi come gli Stati Uniti.

Gli USA ospitano circa il 33% di tutti i data center mondiali, e le proiezioni a lungo raggio (fino al 2040-2050) mostrano un impatto strutturale sulla rete elettrica nazionale. In Virginia (nella cosiddetta ‘Data Center Alley’), i data center assorbono già il 20% della capacità elettrica dello stato. Entro il 2040, si stima che questa regione avrà bisogno di una potenza equivalente a diverse centrali nucleari aggiuntive per non andare in blackout.

L’acqua di raffreddamento, un altro problema crescente

A lungo raggio, le rinnovabili (solare ed eolico) non sono ritenute sufficienti per garantire l’energia costante richiesta dai server AI. Per questo, le grandi aziende americane hanno iniziato a investire direttamente nel nucleare, come Microsoft che ha siglato un accordo per riaprire la centrale di Three Mile Island (Pennsylvania) entro il 2028, mentre Amazon, Google e Meta stanno investendo massicciamente negli SMR (Small Modular Reactors), piccoli reattori nucleari di nuova generazione che potrebbero essere installati direttamente accanto ai campus di data center tra il 2030 e il 2035.

Già ora però negli USA i tempi di attesa per collegare un nuovo data center alla rete elettrica hanno raggiunto i 5-7 anni a causa della mancanza di trasformatori e linee ad alta tensione, mentre cresce il dibattito sul fatto che l’enorme potenziamento della rete richiesto dai data center possa far aumentare i costi fissi nelle bollette dei consumatori residenziali.

In più, con il definitivo passaggio a processori raffreddati a liquido, entro il 2030, il consumo di acqua per il raffreddamento dei data center USA potrebbe raggiungere i 450 miliardi di galloni l’anno, portando i colossi tecnologici a investire nel raffreddamento ‘water-free’ (a circuito chiuso o immersione).

I satelliti: un’alternativa seducente ma tecnologicamente impossibile

Allo stato attuale delle conoscenze tecnologiche, ovviamente. L’idea di spostare la potenza di calcolo nello spazio per risolvere i problemi energetici e di raffreddamento della Terra (il cosiddetto Space Computing) è affascinante, ma scontra contro limiti fisici e ingegneristici brutali.

Sulla Terra, i data center si raffreddano per convezione (aria) o conduzione (liquido). Nello spazio c’è il vuoto, e il vuoto è un isolante termico quasi perfetto. L’unico modo è l’irraggiamento: il calore può essere smaltito solo sotto forma di radiazione infrarossa tramite enormi pannelli radiatori.ma per dissipare il calore generato da un server ad alte prestazioni (che può arrivare a 1000W), servirebbero radiatori di dimensioni colossali a dir poco.

Inoltre, i chip avanzati per l’AI (come quelli di NVIDIA) hanno transistor nanometrici estremamente vulnerabili ai raggi cosmici. Nello spazio, un singolo protone può causare un ‘Bit Flip’ (errore di memoria) o distruggere il circuito. I chip ‘space-rated’ (induriti contro le radiazioni) sono generazioni dietro quelli terrestri in termini di potenza di calcolo.

Infine, la manutenzione impossibile: un data center terrestre richiede la sostituzione continua di dischi, ventole e componenti. Un milione di satelliti richiederebbe un’affidabilità del 100% per 5-10 anni, o una flotta di robot riparatori che al momento non esiste neppure come progetto.

La massa critica e la sindrome di Kessler

Anche ipotizzando il successo di Starship, che punta a 100 tonnellate di carico per lancio, i numeri dei lanci necessari non tornano: un server rack ad alta densità pesa circa 500-1000 kg. Moltiplicato per un milione, parliamo di una massa di centinaia di milioni di tonnellate (considerando batterie, pannelli solari e radiatori): per mettere in orbita un milione di satelliti in 10 anni, sarebbe necessario lanciare una Starship ogni poche ore.

L’altro problema è quello dei detriti spaziali ovvero la Sindrome di Kessler: un milione di oggetti in orbita bassa creerebbe una densità tale che un singolo impatto accidentale genererebbe una reazione a catena distruttiva, rendendo l’orbita terrestre inutilizzabile per secoli.

Un confronto che tradisce preoccupazioni

Dal 1957 a oggi, sono stati lanciati complessivamente circa 21.000 – 21.500 satelliti. Questo numero include tutto ciò che è stato messo in orbita: dai pionieristici esploratori degli anni ’60 alle moderne mega-costellazioni. È interessante notare che oltre la metà di tutti i satelliti della storia è stata lanciata negli ultimi cinque anni, però non tutti i satelliti lanciati sono ancora in orbita.

Molti sono rientrati nell’atmosfera bruciando o sono caduti sulla Terra: si calcola che sino ancora attivi e funzionanti ancora 11.500-12.000 unità, i restanti sono satelliti ‘morti’, stadi di razzi o frammenti che vagano come detriti. Le stime per il 2030 ipotizzano la presenza di oltre 60.000 satelliti in orbita bassa, sollevando enormi preoccupazioni per la sicurezza e l’inquinamento luminoso che ostacola l’astronomia.

Non contando, naturalmente, il milione di satelliti di Musk

di Massimo Bolchi

L’immagine a corredo è stata creata dall’AI Gemini 3