Cento volte più potente di qualsiasi processore mai volato nello spazio. Duemila teraflop di capacità di calcolo AI. Costo energetico: un decimo rispetto ai data center terrestri. Consumo d’acqua per raffreddamento: zero. Questi sono i numeri di Starcloud-1, il satellite che Nvidia e la startup Starcloud lanceranno a novembre 2025 con un chip H100 a bordo. L’obiettivo è testare se i server orbitali possono davvero sostituire i data center terrestri, sfruttando energia solare continua e dissipazione termica radiativa nel vuoto.
La startup Crusoe lancerà il primo cloud pubblico spaziale nel 2027. Axiom Space sta costruendo una rete di nodi orbitali. E la Cina ha già messo in orbita dodici satelliti della costellazione Xingsuan, destinata a raggiungere 2.800 unità entro il 2035. I nostri dati stanno lasciando il pianeta prima di noi.
Un frigorifero pieno di silicio che va in orbita
Il satellite pesa 60 chilogrammi. Più o meno quanto un frigorifero da cucina. Dentro, schermato da un involucro argentato, c’è il chip: un Nvidia H100 da duemila teraflop, il processore AI più potente mai spedito oltre l’atmosfera. A novembre partirà con un passaggio gentilmente offerto da SpaceX (non è vero, è a pagamento), destinazione orbita terrestre bassa.
Non è un esperimento di nicchia: è il primo tentativo industriale di spostare i data center fuori dalla Terra, dove l’energia solare è gratuita, il raffreddamento costa zero e i vincoli normativi, beh… semplicemente non esistono.
Philip Johnston, CEO di Starcloud, è convinto che tra dieci anni la maggior parte dei nuovi data center sarà costruita nello spazio. E non è il solo: Jeff Bezos condivide la visione. Anche Crusoe, startup con valutazione da 10 miliardi di dollari, ha già firmato per lanciare server orbitali nel 2026. Il test di novembre dirà se hanno ragione o se è solo un’idea costosa con troppa ambizione.
Server orbitali, raffreddamento cosmico e pannelli da quattro chilometri
I data center terrestri hanno un problema strutturale. Consumano acqua, molta. Un singolo impianto da 40 megawatt può utilizzare 1,7 milioni di tonnellate d’acqua in dieci anni solo per il raffreddamento. Nello spazio questo limite sparisce. Il vuoto cosmico agisce come dissipatore termico infinito. Il calore viene espulso per radiazione infrarossa verso lo spazio profondo, senza bisogno di torri evaporative, circuiti ad acqua o ventilatori.
Secondo uno studio pubblicato su Advanced Materials, la dissipazione radiativa nello spazio può gestire carichi termici elevati senza sistemi attivi, a patto di progettare radiatori con alta emissività. Starcloud-1 utilizza pannelli con coefficiente superiore a 0,9, ottimizzati per emettere nell’infrarosso lontano. Il sistema è pensato per funzionare anche sotto carico massimo, quando il chip H100 consuma 700 watt.
Il piano a lungo termine è ancora più ambizioso. Starcloud vuole costruire un data center da cinque gigawatt con pannelli solari e radiatori larghi quattro chilometri per lato. Sedici chilometri quadrati di superficie per catturare energia e disperdere calore. Un’architettura simile è stata proposta anche dalla Cina, che punta a una rete di 2.800 satelliti con capacità totale di mille petaoperazioni al secondo entro il 2035. Inizia a girarmi la testa.
Radiazioni, detriti e guasti a 7 chilometri al secondo
Ok, le ambizioni ve le ho dette, ma sono legittime? Io di dubbi ne ho, non so voi. I satelliti operano in un ambiente ostile: radiazioni cosmiche, oscillazioni termiche estreme (da meno 120 a più 120 gradi Celsius), micrometeoriti, detriti spaziali. Uno studio pubblicato su Light: Science & Applications ha dimostrato che i componenti elettronici nello spazio subiscono degradazione accelerata a causa dell’esposizione ai raggi cosmici e all’ossigeno atomico, particolarmente aggressivo in orbita bassa.
Nvidia e Starcloud sostengono che il chip H100 sia stato isolato a sufficienza per resistere. Non si sa se sia stato indurito contro le radiazioni o se la schermatura passiva sia sufficiente. Il test di novembre darà risposte concrete: stabilità operativa durante eventi di radiazione, equilibrio termico sotto carico massimo, networking ottico ad alta velocità verso costellazioni terrestri e satellitari.
Server orbitali, davvero 10 anni per spostare tutto fuori dal pianeta?
Johnston, ve lo scrivevo più su, ha dichiarato che “tra dieci anni, quasi tutti i nuovi data center saranno costruiti nello spazio”. È una previsione audace. Sulla Terra, costruire un data center da 100.000 GPU come quello di xAI in Tennessee richiede mesi di permessi, infrastrutture elettriche dedicate e sistemi di raffreddamento complessi. Nello spazio, i vincoli normativi sono minimi. Non serve autorizzazione edilizia, nessuna opposizione delle comunità locali, nessun limite alla crescita fisica.
Ma ci sono ostacoli di altro genere. I costi di lancio, anche con SpaceX Starship che promette 50-100 dollari al chilogrammo, restano significativi. La manutenzione è complessa: nessun tecnico può salire su una scala per sostituire un componente guasto. E poi c’è la sindrome di Kessler, il rischio che una collisione generi una cascata di detriti che rende intere orbite inutilizzabili.
Eric Schmidt, ex CEO di Google che ha acquisito la startup di lanci spaziali Relativity Space, ha dichiarato al Congresso che la crescita dell’AI impone “infrastrutture industriali in scala mai vista prima”.
Lo spazio, secondo Schmidt, può offrire quelle risorse senza i vincoli terrestri. Ma serve tecnologia robotica avanzata per assemblare e manutenere strutture orbitali su larga scala, e al momento quella tecnologia non esiste ancora in forma matura.
Starcloud-1 è un test. Se il chip H100 resiste, processa dati in modo affidabile e dimostra che il raffreddamento radiativo funziona, allora i server orbitali passeranno da esperimento a infrastruttura reale. Se fallisce, resterà un tentativo interessante in un settore che ha sempre amato le idee impossibili.
A novembre sapremo da che parte si va.