OpenAI rifiuta il bailout: Sam Altman difende l’indipendenza dell’IA mentre Musk accelera sulla corsa ai chip AI

Negli USA, la corsa all’intelligenza artificiale si intreccia sempre più con la politica industriale e con la necessità di rafforzare la filiera dei semiconduttori. In questo contesto, Sam Altman, CEO di OpenAI, ha voluto prendere le distanze da qualsiasi ipotesi di aiuto governativo diretto per la costruzione dei nuovi data center dell’azienda. L’obiettivo è riaffermare la fiducia nella sostenibilità del proprio modello e, al tempo stesso, marcare la differenza tra un’azienda innovatrice e una che chiede supporto pubblico per correggere errori di gestione.
Altman ha confermato che OpenAI ha dialogato con il governo americano nell’ambito delle iniziative volte a potenziare la produzione domestica di chip, un settore cruciale non solo per l’economia ma anche per la sicurezza nazionale. Tuttavia, il CEO ha precisato che non esiste alcuna richiesta formale di garanzie federali o fondi pubblici a copertura dei data center della compagnia. Secondo Altman, sarebbe infatti un errore scaricare sul contribuente il rischio imprenditoriale legato a investimenti privati, soprattutto in un momento in cui l’IA sta diventando uno dei motori più potenti della competitività globale.
Le dichiarazioni arrivano dopo alcune parole, giudicate ambigue, pronunciate dal CFO Sarah Friar, che aveva ventilato la possibilità di una collaborazione con il governo per ridurre i costi di finanziamento legati alla produzione di chip e all’espansione delle infrastrutture. Quelle affermazioni avevano scatenato un’ondata di critiche, alimentando l’idea di un possibile “bailout” tecnologico per un’azienda privata valutata mezzo trilione di dollari.
La realtà è più sfumata. OpenAI si trova oggi in una fase di crescita esplosiva, ma anche di forte pressione finanziaria. La costruzione di nuovi data center e la fornitura di potenza di calcolo per modelli sempre più complessi richiedono investimenti titanici. Altman ha dichiarato che la società ha pianificato di spendere 1.400 miliardi di dollari in infrastrutture nei prossimi otto anni, una cifra che da sola rappresenta un’intera categoria industriale.
A differenza però di colossi come Google o Meta, OpenAI non può contare su un business pubblicitario multimiliardario né su un ecosistema cloud di proprietà capace di autofinanziarsi. Per questo, l’azienda ha stipulato una serie di accordi strategici con produttori di hardware come Nvidia e AMD, destinati a garantire l’accesso alle GPU e alle risorse necessarie alla formazione e all’esecuzione dei modelli linguistici. Tali partnership, dal valore stimato di oltre mille miliardi di dollari, rappresentano una rete di sicurezza industriale, ma non risolvono il nodo centrale, ovvero come sostenere nel tempo un’espansione di tale portata senza erodere la redditività.
Secondo le stime, OpenAI avrebbe registrato perdite per oltre 12 miliardi di dollari nel terzo trimestre, un dato che evidenzia quanto la fase di crescita attuale si basi ancora su un modello di investimento anticipato, con profitti rimandati a un futuro in cui l’AI diventerà onnipresente nei flussi economici. Altman, tuttavia, mantiene una visione aggressiva e prevede di chiudere l’anno con un fatturato annualizzato superiore ai 20 miliardi, con l’ambizione di raggiungere “centinaia di miliardi” entro il 2030.
Per sostenere questa traiettoria, l’azienda sta esplorando soluzioni alternative di finanziamento, tra cui la vendita diretta di capacità computazionale a imprese e privati. In pratica, un “AI cloud” gestito direttamente da OpenAI, che metterebbe la società in competizione con i giganti del settore, inclusi i suoi stessi partner strategici come Microsoft e Google. Una mossa audace che potrebbe ridefinire gli equilibri del mercato cloud, aprendo un nuovo fronte tra chi sviluppa modelli e chi fornisce l’infrastruttura per farli funzionare.
Altman non esclude neppure la possibilità di nuove iniezioni di capitale, sia sotto forma di equity sia di debito, ma resta fermo nel ribadire un principio di responsabilità imprenditoriale: “Se sbagliamo e non riusciamo a rimediare, dobbiamo fallire. Altri continueranno il lavoro e il mercato troverà il suo equilibrio.” Un messaggio che suona come un manifesto di indipendenza in un settore in cui l’intreccio tra innovazione, potere politico e risorse economiche diventa sempre più fitto.
Nel frattempo, a Washington, le parole di Altman trovano eco in quelle di David Sacks, consigliere della Casa Bianca per l’intelligenza artificiale e la crittografia, che ha escluso qualsiasi piano di salvataggio pubblico per il comparto AI. Il governo statunitense, ha affermato, punta a sostenere la leadership tecnologica del Paese ma non a garantire la sopravvivenza di singole aziende.
Elon Musk e la tentazione Intel
Nel frattempo, Elon Musk ha dichiarato che probabilmente Tesla dovrà costruire (forse in partnership con Intel) una gigantesca fabbrica di chip per realizzare i propri semiconduttori dedicati all’IA. Tesla sta progettando il suo chip AI di quinta generazione destinato a sostenere le ambizioni di guida autonoma dell’azienda e, durante l’assemblea annuale, Musk ha illustrato i potenziali piani di produzione.
“Sapete, forse faremo qualcosa con Intel”, ha detto Musk rivolgendosi alla platea entusiasta degli azionisti Tesla. “Non abbiamo firmato alcun accordo, ma probabilmente vale la pena di avviare una discussione con Intel”. Musk aveva già anticipato in passato l’arrivo del chip AI5, confermando anche le collaborazioni con TSMC e con Samsung Electronics. Questi chip alimentano i sistemi di guida autonoma di Tesla, compreso il software Full Self-Driving (FSD).
Secondo quanto dichiarato da Musk in un post su X, una piccola quantità di unità AI5 sarà prodotta nel 2026, mentre la produzione su larga scala potrà iniziare solo nel 2027. La successiva generazione, AI6, utilizzerà le stesse linee produttive ma offrirà prestazioni doppie, con l’avvio della produzione di massa previsto per la metà del 2028.
“Anche proiettando lo scenario migliore per la produzione dei chip da parte dei nostri fornitori, non sarà comunque sufficiente”, ha affermato Musk. “Per questo penso che potremmo dover realizzare una Tesla terafab. È come una gigafactory, ma molto più grande. Non vedo altra soluzione per raggiungere il volume di chip di cui abbiamo bisogno”.
Musk non ha fornito dettagli tecnici su come sarà costruita la fabbrica, ma ha spiegato che l’obiettivo sarà raggiungere almeno 100.000 wafer start al mese. Il nuovo chip, ha aggiunto Musk, sarà più economico, più efficiente dal punto di vista energetico e ottimizzato per il software proprietario di Tesla e consumerà circa un terzo della potenza rispetto al Blackwell di Nvidia.
A ognuno il proprio chip AI
A muoversi nel nascente mercato dei chip AI proprietari (a parte ovviamente Nvidia) ci sono anche Amazon, Microsoft e Google. Amazon sta tentando di rafforzare la propria posizione nell’hardware per l’IA attraverso i chip proprietari come i modelli Trainium e Inferentia, progettati per alleviare la dipendenza dalle GPU di Nvidia. Tuttavia, diverse fonti riportano che alcune startup clienti ritengono questi chip meno competitivi rispetto alle GPU Nvidia in termini di latenza e cost-effectiveness.
Microsoft ha dichiarato grandi investimenti in infrastrutture IA e chip, ma sta registrando ritardi significativi nello sviluppo del suo progetto di chip “Maia/Braga”, con produzione di massa rimandata al 2026. In termini di rischio, un’analisi suggerisce che Microsoft presenti relativamente meno vulnerabilità di Amazon in termini di spese IA, grazie a un flusso di entrate più forte e backlog di ordini cloud strutturati.
Google appare in vantaggio nell’hardware IA. Il gruppo ha sviluppato internamente i suoi chip TPU, recentemente ha annunciato una settima generazione con prestazioni raddoppiate o più per training e inferenza e ha già siglato accordi “multi-miliardari” con aziende quali Anthropic per l’uso di tali chip. Questa strategia verticale (dal chip al servizio cloud) pone Google in una posizione potenzialmente più indipendente rispetto ai concorrenti.


