Per far volare xAI, che brucia 1 mld al mese, Elon Musk la vende a SpaceX: fusione da 1.250 mld

Dopo le prime “avvisaglie” dei giorni scorsi, Elon Musk ha annunciato una mossa che, per scala e immaginario, supera persino gli standard a cui ha abituato osservatori e investitori. SpaceX ha acquisito xAI, con una fusione del valore complessivo di 1,25 miliardi di dollari (1 miliardo per SpaceX e 250 milioni per xAI) che ha l’obiettivo di realizzare convergenza quasi cosmologica tra spazio e calcolo. Nel post pubblicato sul sito di SpaceX, Musk parla apertamente di un nuovo “libro” nella missione delle due aziende, evocando un Sole senziente e l’estensione della coscienza verso le stelle, in un linguaggio che oscilla tra manifesto tecnologico e fantascienza visionaria.
Al di là delle metafore, il cuore dell’argomentazione è sorprendentemente concreto. Secondo Musk, la crescita della domanda di AI non può essere sostenuta dalle risorse terrestri. I data center “terrestri” consumano quantità sempre maggiori di energia, generano calore difficile da dissipare e dipendono da infrastrutture elettriche già sotto pressione. Lo spazio, al contrario, offrirebbe una fonte virtualmente illimitata di energia solare e l’ambiente ideale per installare enormi capacità di calcolo senza i vincoli imposti da regolamentazioni, reti e disponibilità di suolo.
In questa visione, SpaceX diventa l’anello mancante. Starship, il veicolo spaziale ancora in fase di test, viene presentato come lo strumento chiave per rendere economicamente sostenibile il trasporto di hardware AI in orbita. Musk arriva a stimare che nel giro di due o tre anni il modo più economico per generare potenza di calcolo per l’AI sarà nello spazio, sostenendo che, nel lungo periodo, l’unica vera strada per scalare sia abbandonare il pianeta. È una dichiarazione che ignora volutamente le difficoltà attuali del programma Starship, che finora ha completato soltanto voli sperimentali, ma che si inserisce perfettamente nella narrativa di accelerazione continua tipica del fondatore di SpaceX.
I numeri citati nel post sono impressionanti. Musk ipotizza un futuro in cui SpaceX sarà in grado di lanciare Starship con cadenza oraria, portando in orbita carichi da 200 tonnellate per volo. In questo scenario, un milione di tonnellate di satelliti l’anno, ciascuna capace di generare 100 kW di potenza di calcolo, porterebbe a un incremento annuale di 100 gigawatt di capacità AI senza costi operativi o di manutenzione significativi. L’ambizione arriva fino a parlare di un percorso realistico verso il lancio di un terawatt di capacità di calcolo all’anno dalla Terra.
Il racconto muskiano, però, trascura aspetti fondamentali. I computer non sono entità eterne, ma come ogni cosa si guastano, degradano, richiedono manutenzione e supervisione umana. Portare queste problematiche in orbita non le elimina, ma addirittura le complica. Inoltre, la gestione termica, la latenza delle comunicazioni e la sicurezza fisica di data center spaziali pongono interrogativi che nel post di Musk restano sullo sfondo, sacrificati in favore di una narrazione di inevitabilità tecnologica.
Nella visione di Musk, comunque, la Terra non è che un punto di partenza. Il progetto di colonizzazione lunare e marziana viene chiamato in causa come passaggio logico successivo. La Luna, in particolare, viene descritta come una piattaforma industriale ideale, capace di sfruttare risorse locali per produrre satelliti e lanciarli nello spazio profondo tramite sistemi di lancio elettromagnetici. In questo contesto, Musk arriva a parlare di centinaia di terawatt all’anno di satelliti AI spediti oltre l’orbita terrestre, trasformando il nostro satellite in una fabbrica cosmica di potenza di calcolo.
Per quanto estremo, questo tipo di discorso non è isolato. Anche Jeff Bezos infatti ha più volte sostenuto come lo spazio rappresenti l’unica via per una crescita industriale senza limiti, mentre Google ha recentemente rilanciato idee simili con progetti sperimentali che immaginano datacenter orbitali alimentati dal Sole. Nel novembre scorso, il colosso di Mountain View ha presentato Project Suncatcher, un’iniziativa che mira a esplorare l’uso di TPU in orbita come soluzione di lungo periodo ai problemi energetici dell’AI.
Ciò che colpisce nel post di Musk (o forse non più di tanto conoscendolo), non è tanto l’audacia tecnologica quanto l’assenza quasi totale di considerazioni etiche. L’idea di grandi data center nello spazio solleva infatti enormi interrogativi sulla giurisdizione, sul controllo e sull’uso delle capacità di calcolo generate. È un punto delicato, soprattutto alla luce delle polemiche che hanno coinvolto servizi AI legati alle aziende di Musk, accusati di produrre contenuti problematici, simpatizzare con ideologie estreme o facilitare la diffusione di deepfake.
Portare l’infrastruttura dell’AI fuori dall’atmosfera non elimina questi rischi, li sposta semplicemente su un piano più difficile da regolamentare. In un contesto di giurisdizione incerta e governance globale ancora fragile, l’idea di “data center nei cieli” rischia di amplificare le asimmetrie di potere già presenti sulla Terra. È una dimensione che Musk (almeno per ora) non affronta, preferendo concentrarsi su una visione di progresso inevitabile, dove la scala tecnologica giustifica ogni salto in avanti e lo spazio diventa l’ultima frontiera del calcolo stesso.
(Immagine in apertura: Shutterstock)

