OpenAI e Broadcom annunciano una collaborazione strategica per produrre chip AI per 10 GW

OpenAI continua la sua corsa verso la costruzione di una nuova infrastruttura globale per l’intelligenza artificiale e lo fa con un alleato di peso come Broadcom, uno dei giganti mondiali dei semiconduttori. Le due aziende hanno annunciato una collaborazione strategica per lo sviluppo e la distribuzione di 10 gigawatt di acceleratori AI personalizzati, che dovrebbero entrare in funzione entro la fine del prossimo anno. La partnership ha l’obiettivo di creare una piattaforma hardware progettata su misura per i modelli avanzati di OpenAI ottimizzando ogni fase del processo, dalla formazione all’inferenza.
Secondo la dichiarazione congiunta dei due colossi, “progettando chip e sistemi proprietari, OpenAI può integrare ciò che ha appreso nello sviluppo dei modelli di frontiera direttamente nell’hardware, sbloccando nuovi livelli di capacità e intelligenza”. Una frase che racchiude la filosofia dell’intero progetto, ovvero un’integrazione verticale completa tra software e silicio, con Broadcom come partner tecnologico chiave nella costruzione di un’infrastruttura scalabile interamente basata su Ethernet, PCIe e connettività ottica di ultima generazione.
Sam Altman, CEO e cofondatore di OpenAI, ha descritto l’accordo come un passo fondamentale per “espandere l’ecosistema di partner che stanno costruendo la capacità necessaria per spingere il confine dell’intelligenza artificiale e fornire benefici a tutta l’umanità”. Il riferimento ai 10 GW di capacità computazionale previsti non è solo simbolico, ma rappresenta una cifra enorme anche per gli standard industriali attuali, nonché un segnale chiaro della scala colossale con cui OpenAI sta pensando al futuro.
In un podcast che accompagna l’annuncio, Altman ha sottolineato come il nuovo sistema di OpenAI e Broadcom sarà orientato soprattutto alle fasi di inferenza, ossia al funzionamento operativo dei modelli una volta addestrati. Le GPU odierne, ha spiegato, sono già straordinarie, ma la combinazione di un modello progettato ad hoc, un chip su misura e un’infrastruttura ottimizzata per efficienza energetica permetterà di ottenere “molta più intelligenza per watt”. In un’epoca in cui l’impatto energetico dell’IA è sotto crescente osservazione, questo approccio potrebbe fare la differenza.
Dal lato Broadcom, il presidente della Semiconductor Solutions Group, Charlie Kawwas, ha confermato che i rack realizzati per OpenAI includeranno l’intera gamma di soluzioni di connettività dell’azienda, riaffermando la leadership del gruppo nel settore dell’infrastruttura per l’intelligenza artificiale. La collaborazione con OpenAI non si limita quindi alla fornitura di componenti, ma si estende alla progettazione integrata del sistema.
Greg Brockman, presidente di OpenAI, ha aggiunto un dettaglio significativo, ovvero che i modelli di OpenAI sono stati impiegati direttamente nella progettazione dei chip. Gli algoritmi hanno infatti suggerito ottimizzazioni che, pur essendo realizzabili anche da ingegneri umani, sono state ottenute in tempi molto più rapidi grazie al supporto dell’IA stessa.
Altman ha definito la costruzione dell’infrastruttura IA come “il più grande progetto industriale congiunto nella storia dell’umanità”, paragonandolo con un tocco di ironia alla costruzione della Grande Muraglia Cinese per proporzioni e impatto economico globale. L’obiettivo non è solo garantire la capacità necessaria per i modelli futuri, ma anche assicurarsi un controllo diretto sulla catena tecnologica, in un contesto dove la dipendenza da Nvidia, AMD e altri fornitori esterni rappresenta un rischio strategico.
In effetti, questo accordo si inserisce in un mosaico di alleanze miliardarie che OpenAI ha stretto negli ultimi mesi. A settembre, Nvidia aveva annunciato un piano da 10 GW con un investimento fino a 100 miliardi di dollari, mentre AMD ha siglato un’intesa da 6 GW per più generazioni delle GPU Instinct, accompagnata da una maxi-opzione su 160 milioni di azioni. Anche Oracle è coinvolta, con un contratto da 300 miliardi di dollari in cinque anni per costruire 5 GW di capacità nei propri data center.
Si tratta di una rete di interdipendenze che consolida OpenAI al centro dell’ecosistema IA globale, un ruolo che comporta vantaggi enormi, ma anche rischi. Gli analisti di mercato iniziano infatti a interrogarsi sul potenziale “effetto bolla” di questi investimenti, in cui termini come gigawatt, token e modelli sostituiscono concetti più tradizionali come ricavi o utile operativo. Non a caso, OpenAI prevede di restare non profittevole per almeno altri quattro anni, mentre continua a spendere somme colossali nella costruzione dei propri data center e nel potenziamento delle infrastrutture.