Il grande progetto di Intel di unire CPU, GPU e memorie in un unico package chiamato XPU non si farà. In una conferenza stampa in vista dell’International Supercomputing Conference (ISC) della scorsa settimana, Jeff McVeigh, vicepresidente del Supercomputing Group di Intel, ha rivelato che la piattaforma Falcon Shores non solo è in ritardo, ma non è nemmeno una XPU.

“La mia precedente spinta a integrare una CPU e una GPU in una XPU era prematura“, ha dichiarato McVeigh, sostenendo che il mercato è cambiato così tanto nell’anno trascorso da quando ha annunciato Falcon Shores che non aveva più senso procedere. Secondo McVeigh, infatti, oggi i carichi di lavoro di IA e HPC sono troppo dinamici perché questa integrazione di CPU, GPU e memoria abbia senso. “Quando i carichi di lavoro sono fissi, quando si ha la certezza che non cambieranno drasticamente, l’integrazione è ottima”, ha aggiunto.

Tuttavia, la flessibilità dell’architettura modulare di Falcon Shores sarebbe dovuta essere un vantaggio, in quanto Intel prevedeva di offrirla in più SKU con più o meno risorse CPU o GPU, a seconda del caso d’uso. Questo era il senso del passaggio a un’architettura chiplet e dell’utilizzo del packaging per unire tutto.

Detto questo, la rivelazione non dovrebbe sorprendere più di tanto, considerando che già a marzo Intel aveva smantellato il suo Accelerated Computing Group e più tardi, nello stesso mese, il capo della divisione Raja Koduri era passato a una startup specializzata in intelligenza artificiale.

Lenovo_HPCaaS_2

La ristrutturazione aveva significato anche la cancellazione di Rialto Bridge, il successore previsto delle GPU Ponte Vecchio che alimentano il supercomputer Aurora dell’Argonne National Lab. Tuttavia, a quanto pare, sembrava che le XPU Falcon Shores di Intel, sebbene posticipate al 2025, fossero state risparmiate. Ora sappiamo che Falcon Shores, così come esiste oggi, assomiglia molto poco alla visione presentata da Intel lo scorso anno. Invece di configurazioni CPU, GPU e CPU+GPU, avremo infatti solo una GPU.

La decisione di Intel non ha comunque avuto ripercussioni sul MI300 di AMD, chip che segue uno schema simile e che dovrebbe debuttare il mese prossimo. Sarà dotato di 24 core Zen 4 (gli stessi utilizzati nella piattaforma Epyc 4 Genoa) distribuiti su due chiplet collegati tra loro da sei die di GPU e otto moduli di memoria ad alta larghezza di banda per un totale di 128 GB. AMD sostiene che questo chip offre prestazioni IA 8 volte superiori rispetto al MI250X utilizzato nel supercomputer Frontier, ottenendo anche prestazioni per watt 5 volte superiori.

AMD non è però l’unica a sviluppare un’architettura combinata CPU-GPU per i datacenter. C’è infatti anche il superchip Grace Hopper di Nvidia annunciato a marzo dello scorso anno. L’approccio di Nvidia in questo campo è stato quello di accoppiare la sua CPU Grace a 72 core con un die GH100 che utilizza l’interconnessione proprietaria NVLink-C2C a 900GBps. Sebbene questo elimini il PCIe come collo di bottiglia tra i due componenti, essi sono distinti, ognuno con la propria memoria. Il die GH100 ha la propria memoria HBM3, mentre la GPU Grace è accoppiata a 512 GB di LPDDR5, per una larghezza di banda di memoria di 500 GBps.

L’AMD MI300A, invece, è una vera e propria APU in grado di indirizzare la stessa memoria HBM3 senza doverla copiare avanti e indietro su un’interconnessione. Quale sia l’approccio che garantirà prestazioni migliori e in quali carichi di lavoro non è ancora dato saperlo, ma è una battaglia per la quale Intel (almeno per ora) non scenderà in campo a combattere.