Meta sceglie le CPU Nvidia Grace: la sfida a Intel e AMD parte dai data center

Quando si parla di Nvidia nei data center, si resta incollati a un immaginario fatto di GPU ovunque, rack costosissimi, accelerazione massiva per addestramento e inferenza. Eppure, nel 2026 la partita si sta spostando sula CPU, un terreno forse più “silenzioso” ma strategicamente decisivo. Meta, uno dei pochi hyperscaler in grado di far diventare “standard” ciò che per altri è sperimentazione, ha iniziato a distribuire su larga scala i processori Nvidia Grace in configurazione CPU-only, aprendo di fatto una breccia in un duopolio (Intel-AMD) che sembrava intoccabile.
L’aspetto interessante non è tanto che Meta abbia già usato hardware Nvidia (lo aveva già fatto con i superchip Grace-Hopper nel sistema Andromeda), quanto la scelta di adottare Grace anche dove la GPU non serve. In altre parole, Meta sta dicendo apertamente che una parte dei workload “general purpose” e una fetta crescente di AI agentica possono essere gestite con CPU Arm progettate da Nvidia senza bisogno di acceleratori dedicati.
Secondo Nvidia, i test interni sulle CPU Grace hanno mostrato un miglioramento fino a 2x in performance per watt su carichi backend. Un dato importante perché data center hyperscale l’efficienza energetica è ormai una variabile economica primaria, spesso più rilevante del picco prestazionale. Se una CPU permette di abbassare consumi e densità termica su sistemi CPU-only, l’impatto si riflette direttamente su costi operativi, provisioning e capacità reale per metro quadro.
Grace, del resto, nasce con caratteristiche insolite per il mondo server tradizionale. Il chip integra 72 core Arm Neoverse V2 fino a 3,35 GHz e viene proposto in due versioni: standalone con fino a 480 GB di memoria oppure in configurazione dual-die (Grace-CPU Superchip) con fino a 960 GB.
Qui entra in gioco l’elemento più “controintuitivo” per chi è abituato a server basati su CPU Xeon ed Epyc, ovvero l’uso di LPDDR5x. Una scelta tipica del mondo mobile che in ambito server diventa una leva ingegneristica per aumentare densità e banda. Per la versione più prestante, Nvidia parla di circa 1 TB/s di bandwidth tra i due die, un valore che sposta il collo di bottiglia della memoria in un territorio molto diverso da quello dei sistemi DDR5 classici.
Se Grace è la prima mossa, Vera è la seconda. Presentata ufficialmente al CES 2026, questa CPU alza l’asticella a 88 core Arm custom, introduce SMT (di fatto l’equivalente dell’hyperthreading) e aggiunge funzioni di confidential computing. Meta intende usare proprio queste capacità per abilitare elaborazioni “private” e nuove funzionalità AI su WhatsApp, un contesto in cui sicurezza e isolamento hardware diventano requisiti strutturali.
Questa scelta, in prospettiva, è ancora più significativa perché va in direzione opposta rispetto al trend dominante. Mentre gli hyperscaler, negli ultimi anni, hanno spinto su CPU Arm proprietarie, come Graviton per Amazon o Axion per Google, Meta sta scommettendo su un vendor esterno, con un design Arm ma firmato Nvidia. È un segnale di quanto la convergenza tra CPU, GPU e networking stia diventando un unico pacchetto integrato, soprattutto se si considera che Meta continuerà a espandere l’adozione di GPU Nvidia e della piattaforma di rete Spectrum-X, coerentemente con un capex 2026 stimato tra i 115 e i 135 miliardi di dollari.
Sul fronte economico, Nvidia mantiene il massimo riserbo sui volumi reali, ma le stime della collaborazione con Meta che circolano negli ambienti tech parlano di numeri potenzialmente giganteschi, tra rack che superano i 3,5 milioni di dollari e piani di implementazione che citano “milioni” di Superchip GB300 e Vera Rubin.
I data center di Meta non sono però diventati tutto di un colpo monocolore. Al loro interno, infatti, esiste già una flotta importante di AMD Instinct e l’azienda ha partecipato direttamente alla progettazione dei rack Helios attesi nel corso dell’anno. È quindi plausibile che Meta mantenga una strategia multi-vendor, usando Nvidia come asse portante per alcune pipeline AI e AMD come contrappeso tecnico ed economico, soprattutto in un mercato dove disponibilità, prezzi e vincoli di fornitura contano quanto le prestazioni pure.
(Immagine in apertura: Shutterstock)

