OpenAI ha annunciato nuovi investimenti per 110 miliardi di dollari da parte di Amazon, Nvidia e SoftBank, su una valutazione pre-money di 730 miliardi. La cifra colpisce sicuramente, ma il dato realmente interessante sta nella struttura delle operazioni; più che capitale “puro”, si tratta infatti di accordi condizionati a massicci impegni di acquisto di capacità computazionale e distribuzione cloud.

L’investimento di Amazon, pari a 50 miliardi, è il più corposo dei tre e prevede che 35 miliardi vengano erogati solo al verificarsi di determinate condizioni. Tra queste, l’affitto di due gigawatt di acceleratori Amazon Trainium e la distribuzione dei modelli OpenAI su AWS, che diventerà inoltre il fornitore esclusivo di distribuzione cloud di terze parti per Frontier, il nuovo agent builder enterprise annunciato da OpenAI nei giorni scorsi.

È significativo il fatto che OpenAI abbia ribadito come nulla cambi nei rapporti con Microsoft, visto che Azure rimane il provider esclusivo per le API stateless e per i prodotti proprietari. Ne emerge un mosaico multi-cloud dove l’esclusività è ritagliata per perimetri specifici. Questa architettura contrattuale consente a OpenAI di massimizzare la competizione tra hyperscaler, preservando al contempo canali privilegiati.

Kioxia IA

Crediti: Shutterstock

Il contributo di Nvidia, pari a 30 miliardi, segue una logica analoga. L’accordo prevede il dispiegamento di tre gigawatt di capacità di inferenza e due gigawatt di training basati sui sistemi Vera Rubin, annunciati al CES 2026 e attesi in consegna nella seconda metà dell’anno. Per comprendere la portata, occorre tradurre i gigawatt in infrastruttura reale. Con un power usage effectiveness di 1,1 e un consumo di 250 kW per rack, un gigawatt equivale a circa 3.600 sistemi NVL72. Se il costo stimato per sistema è di 8,4 milioni di dollari, si sfiorano i 30 miliardi per gigawatt solo in hardware di calcolo.

Il compute, tuttavia, rappresenta circa metà del costo totale di un data center AI moderno, mentre l’altra metà è occupata da terreno, struttura, connessioni ad alta tensione e sistemi di raffreddamento e sicurezza fisica. Portare in produzione cinque gigawatt di acceleratori implica quindi un esborso superiore ai 300 miliardi di dollari (150 dei quali per l’hardware di calcolo) ed è improbabile che OpenAI internalizzi un tale capex. Più plausibile un modello asset-light, con accordi di acquisto a lungo termine mediati dagli hyperscaler e dai cosiddetti neocloud, replicando quanto fatto con Oracle e Crusoe per il sito Stargate di Abilene, Texas.

Diverso il caso di SoftBank. L’investimento di 30 miliardi, articolato in tre tranche da 10 miliardi tra aprile e ottobre, appare infatti meno legato a impegni di infrastruttura e più orientato a sostenere la traiettoria di lungo periodo verso l’AGI (la cosiddetta intelligenza artificiale generale). SoftBank accetta insomma un profilo di rischio più tradizionale, finanziando una società come OpenAI che, pur con oltre 20 miliardi di ricavi ricorrenti annualizzati e 50 milioni di abbonati paganti, non prevede redditività prima del 2029.

(Immagine in apertura: Shutterstock)