Oracle ha annunciato una delle più ambiziose espansioni di infrastruttura AI mai viste nel settore cloud. Entro la seconda metà del prossimo anno, il colosso di Larry Ellison metterà in campo oltre 18 zettaFLOPS di potenza di calcolo grazie a un massiccio dispiegamento di GPU Nvidia e AMD, con l’obiettivo di consolidare Oracle Cloud Infrastructure (OCI) come una delle piattaforme più performanti al mondo per l’addestramento e l’inferenza dei modelli IA di nuova generazione.

Il cuore di questa infrastruttura sarà un cluster composto da 800.000 GPU Nvidia capace di erogare fino a 16 zettaFLOPS di potenza di picco in FP4, una modalità di calcolo a precisione ridotta che consente di gestire enormi carichi di lavoro AI ottimizzando efficienza energetica e prestazioni. Questa gigantesca installazione rientra nella nuova offerta Zettascale10 di OCI e rappresenta una vittoria strategica per Nvidia, che non fornirà solo le GPU ma anche i rack system e la componente di rete. A interconnettere questa galassia di acceleratori sarà infatti la piattaforma di switching Ethernet Spectrum-X, una delle soluzioni più avanzate per il networking AI ad alte prestazioni.

Parallelamente, Oracle ha annunciato l’arrivo di 50.000 acceleratori AMD MI450X all’interno dei propri data center nella seconda metà del 2026, con ulteriori implementazioni previste per l’anno successivo. Si tratta di una scommessa importante sul fronte della diversificazione hardware, volta a evitare una dipendenza eccessiva da Nvidia e a sfruttare le nuove potenzialità offerte dalle architetture Instinct di AMD.

Oracle zettaFLOPS

Le MI450X, presentate per la prima volta durante l’evento Advancing AI dello scorso giugno, saranno installate in configurazioni Helios, un’architettura rack-scale aperta e modulare che si pone come alternativa al formato proprietario NVL72 di Nvidia. Ogni rack Helios integra 72 GPU MI450X collegate tramite UALink (Ultra Accelerator Link), un interconnect aperto ad alta velocità pensato per favorire la compatibilità tra diversi produttori di acceleratori.

Il design adotta il nuovo formato Open Rack Wide (ORW), approvato dall’Open Compute Project, e promette prestazioni di altissimo livello: 2,9 exaFLOPS in FP4 e fino a 1,4 exaFLOPS in FP8, con 31 terabyte di memoria HBM4 e una banda passante da 1,4 petabyte al secondo. Numeri che collocano i rack Helios nella stessa fascia prestazionale delle future piattaforme Vera Rubin NVL144 di Nvidia, ma con una maggiore capacità di memoria, fondamentale per i modelli di intelligenza artificiale di grandi dimensioni.

Complessivamente, i 50.000 acceleratori AMD previsti nella prima fase garantiranno oltre 2 zettaFLOPS di potenza di calcolo ultra-low precision, contribuendo al totale di 18 zettaFLOPS promesso da Oracle. Tuttavia, come spesso accade nel mondo dell’AI, la cifra va contestualizzata; la precisione FP4 è considerata principalmente un formato di memorizzazione per l’inferenza, non per il training, che di norma utilizza formati più precisi come BF16 o FP8. Solo recentemente, Nvidia ha iniziato a esplorare attraverso pubblicazioni accademiche il potenziale del pretraining nativo in FP4 con risultati incoraggianti, suggerendo che questa direzione potrebbe diventare presto praticabile anche per i modelli di grandi dimensioni.

Dietro l’enorme investimento di Oracle c’è anche un chiaro risvolto strategico legato a OpenAI. Oracle è infatti il più grande partner infrastrutturale dell’azienda di Sam Altman e sia Nvidia, sia AMD hanno recentemente sottoscritto accordi di investimento con OpenAI. Queste intese prevedono l’uso su larga scala delle loro GPU nei data center dei partner di OpenAI, con Oracle in prima linea nel fornire la potenza di calcolo necessaria per i futuri modelli GPT e progetti come Stargate, l’ambiziosa rete di super-data center AI.

(Immagine in apertura: Shutterstock)