Google punta allo spazio per l’IA: satelliti solari con TPU per creare data center orbitali

Google ha annunciato un nuovo e ambizioso progetto che sembra uscito da un romanzo di fantascienza: costruire data center orbitanti alimentati dal Sole, grazie a costellazioni di satelliti equipaggiati con i propri chip Tensor Processing Unit (TPU). L’iniziativa, battezzata Project Suncatcher, punta a trasformare lo spazio in una piattaforma di calcolo per l’intelligenza artificiale, sfruttando la luce solare costante e priva di interruzioni come fonte energetica primaria.
Secondo quanto spiegato in un post sul blog ufficiale, per Google “nel futuro, lo spazio potrebbe essere il luogo migliore per scalare la potenza di calcolo dell’IA”. Un’affermazione che, a prima vista, può sembrare visionaria, ma che risponde al problema sempre più urgente della disponibilità di energia per alimentare i data center terrestri. Con la crescente domanda di calcolo per l’intelligenza artificiale, le infrastrutture a terra stanno infatti raggiungendo i propri limiti fisici e ambientali.
Energia solare otto volte più efficiente nello spazio
Google sottolinea che i pannelli solari in orbita possono essere fino a otto volte più efficienti rispetto a quelli utilizzati sulla Terra, perché non subiscono perdite dovute all’atmosfera o ai cicli di giorno e notte. Questo significherebbe una produzione continua di energia pulita, senza la necessità di infrastrutture di backup o costosi sistemi di raffreddamento.
Ma l’idea, per quanto affascinante, comporta sfide logistiche e tecnologiche enormi. Il primo ostacolo è quello del lancio, visto che per costruire un data center spaziale servono centinaia, se non migliaia, di satelliti. Anche con il ritmo record di oltre 140 lanci annuali di SpaceX, la capacità disponibile resta insufficiente.
E poi ci sono i costi. Google stima che solo raggiungendo un prezzo di lancio di circa 200 dollari al chilogrammo entro la metà degli anni 2030, i data center spaziali potrebbero competere con quelli terrestri in termini di costi energetici. Al momento, però, i prezzi sono oltre dieci volte superiori, rendendo l’impresa ancora teorica.
Reti ottiche spaziali e satelliti in formazione ravvicinata
Un altro punto critico riguarda le connessioni di rete. Mentre sulla Terra i data center si basano su cavi in fibra ottica o rame, nello spazio Google intende trasmettere i dati in modalità wireless attraverso il vuoto orbitale, utilizzando una tecnologia chiamata spatial multiplexing che consente di aumentare la larghezza di banda inviando più flussi indipendenti di dati.
L’obiettivo è raggiungere decine di terabit al secondo, con satelliti capaci di comunicare fra loro in tempo reale. Google afferma di aver già testato con successo collegamenti da 800 Gbps, ma ammette che questi sistemi richiedono un’enorme quantità di energia.
Per ottenere prestazioni simili in orbita, sarà inoltre necessario mantenere le distanze fra i satelliti estremamente ridotte, nell’ordine di poche centinaia di metri. In una delle simulazioni interne, il gruppo di ricerca di Mountain View ha ipotizzato una formazione di 81 satelliti, disposti su un diametro di circa due chilometri e orbitanti a 650 chilometri di altezza dalla Terra. In pratica, i futuri data center orbitanti saranno dense costellazioni di satelliti interconnessi, capaci di comportarsi come un’unica gigantesca piattaforma di calcolo distribuito.
Radiazioni spaziali e TPU “resistenti”
Anche una volta lanciati, i satelliti dovranno affrontare un nemico invisibile ma temibile come le radiazioni cosmiche. Mentre sulla Terra l’atmosfera e il campo magnetico proteggono l’elettronica, nello spazio queste barriere naturali sono molto più deboli e le particelle ionizzanti possono compromettere chip e memorie in modo irreversibile.
Per questo, Google sta già sviluppando versioni “radiation-hardened” dei propri TPU, in grado di resistere all’ambiente orbitale. I test effettuati con il modello TPU v6e “Trillium” hanno mostrato risultati promettenti: i chip hanno infatti resistito a un fascio di fotoni da 67 megaelettronvolt, con problemi riscontrati solo nei moduli di memoria ad alta banda (HBM).
Secondo i dati raccolti, questi moduli iniziano a mostrare anomalie dopo una dose cumulativa di 2 krad(Si), quasi tre volte superiore a quella prevista per una missione quinquennale in ambiente schermato. In altre parole, le TPU di nuova generazione potrebbero sopravvivere nello spazio più a lungo del previsto.
Il primo test nel 2027
Google prevede di lanciare due satelliti prototipo nel 2027 per testare la fattibilità del progetto e monitorare il comportamento dell’hardware in orbita. I risultati preliminari e i dettagli tecnici sono già stati descritti in un paper accademico, che analizza sia le prestazioni dei chip, sia i sistemi di comunicazione necessari per creare una rete orbitale autonoma.
Se il progetto dovesse dimostrarsi realistico, Google potrebbe diventare la prima grande azienda tecnologica a spostare parte del proprio calcolo IA nello spazio, un traguardo che cambierebbe profondamente il concetto stesso di cloud computing.
L’idea di portare la potenza di calcolo nello spazio non è però nuova. Nel 2017, la startup Vector aveva già provato a proporre un concetto simile, ma non è mai riuscita a mettere in orbita un singolo satellite. Hewlett Packard Enterprise (HPE) ha invece portato avanti il progetto Spaceborne, un computer lanciato sulla Stazione Spaziale Internazionale nello stesso anno, rimasto operativo per quasi due anni nonostante diversi guasti ai sistemi di alimentazione e ai dischi SSD.
Più recentemente, Axiom Space ha inviato un prototipo di piattaforma di calcolo all’ISS, mentre Jeff Bezos ha ipotizzato un futuro in cui enormi data center orbitanti, alimentati da energia solare illimitata, diventeranno la norma nel giro di vent’anni. Anche Elon Musk, pochi giorni fa, ha dichiarato che SpaceX costruirà i propri data center nello spazio.

