HPE ha scelto il palcoscenico dell’evento GTC 2026 di NVIDIA per annunciare un’espansione significativa del programma NVIDIA AI Computing by HPE, con l’obiettivo di accompagnare organizzazioni, istituzioni scientifiche e governi nel passaggio dall’adozione sperimentale dell’AI alla produzione su scala industriale.

Il primo asse dell’annuncio riguarda la piattaforma HPE Cray Supercomputing GX5000 (già alla seconda generazione exascale), che HPE posiziona come il punto di confluenza naturale tra i carichi di lavoro HPC classici e i nuovi modelli AI. L’integrazione più rilevante è l’introduzione del blade di calcolo HPE Cray Supercomputing GX240, basato sulle CPU NVIDIA Vera, una delle prime soluzioni blade raffreddate a liquido a montare questa architettura.

Ogni blade accoglie fino a 16 CPU Vera e un singolo rack può ospitarne 40, per un totale di 640 CPU e oltre 56.000 core compatibili con l’architettura Arm NVIDIA Olympus. Si tratta di densità di calcolo che ridefiniscono le aspettative per gli ambienti di ricerca più esigenti, da Argonne National Laboratory all’HLRS di Stoccarda. Sul fronte del networking, il GX5000 guadagna inoltre il supporto per NVIDIA Quantum-X800 InfiniBand, con switch da 144 porte capaci di raggiungere 800 Gb/s per porta.

L’altra direttrice dell’annuncio punta alle AI Factory, cioè alle infrastrutture pensate per service provider, entità sovrane e grandi imprese che hanno bisogno di portare l’AI in produzione su scala massiva. L’elemento centrale di questa offerta è il sistema rack-scale NVIDIA Vera Rubin NVL72 by HPE (disponibile a fine anno), progettato per gestire modelli con più di mille miliardi di parametri.

La configurazione integra 36 CPU NVIDIA Vera, 72 GPU NVIDIA Rubin, networking NVLink di sesta generazione, ConnectX-9 SuperNIC e BlueField-4 DPU, il tutto abbinato al sistema di raffreddamento a liquido proprietario di HPE. Rispetto alla generazione Blackwell, NVIDIA dichiara prestazioni di training equivalenti con un quarto delle GPU e costi di inferenza ridotti a un decimo per milione di token.

vlcsnap-2026-03-26-11h43m29s417

Per chi ha esigenze di densità GPU elevata in ambienti di training e inferenza, HPE introduce con disponibilità da inizio 2027 anche il server HPE Compute XD700, basato su NVIDIA HGX Rubin NVL8 e ispirato alle specifiche Open Compute Project. Supporta fino a 128 GPU Rubin per rack (il doppio rispetto alla generazione precedente), riducendo sia l’ingombro fisico, sia il costo energetico per unità di calcolo. Nel frattempo, le GPU NVIDIA RTX PRO 6000 Blackwell Server Edition sono già ordinabili in tutte le configurazioni HPE AI Factory.

Un portfolio hardware di questa portata rischia di restare fine a se stesso senza un layer software capace di orchestrarlo e HPE e NVIDIA affrontano la questione su più fronti. Le soluzioni HPE AI Factory sono in fase di certificazione per il programma NVIDIA Cloud Provider, un passo che semplifica la validazione per i fornitori di servizi cloud e riduce la complessità burocratica nell’accesso all’ecosistema NVIDIA.

HPE ha anche introdotto modelli di multi-tenancy per ambienti su larga scala, con supporto a VM con GPU passthrough e namespace Kubernetes sicuri tramite NVIDIA Multi-Instance GPU (MIG), abilitati da SUSE Virtualization e SUSE Rancher Prime. Inoltre, il portfolio HPE AI Factory supporta Red Hat Enterprise Linux e OpenShift, integrati con NVIDIA AI Enterprise per ambienti Linux enterprise.

Il tassello forse più ambizioso è però l’introduzione di NVIDIA Mission Control nelle soluzioni HPE AI Factory at scale e sovereign. Si tratta di una piattaforma di orchestrazione, monitoraggio e resilienza dei carichi AI che si appoggia a NVIDIA Run:ai per la schedulazione delle GPU e a NVIDIA Dynamo per l’inferenza ad alte prestazioni. ​