Le novità di Dell, HPE, Cisco, Lenovo e IBM annunciate a Nvidia GTC 2026

Nel corso dell’Nvidia GTC 2026, che si concluderà domani, non c’è stato spazio solo per gli annunci del gigante tech americano guidato da Jensen Huang, ma la vetrina dell’evento californiano è servita anche ad altri vendor per annunciare le loro novità hardware, ovviamente nel segno dell’intelligenza artificiale.
Dell e la nuova era Pro Precision
Dell ha scelto il GTC per presentare una revisione profonda della sua linea di workstation professionali, ora rinominata Dell Pro Precision. La gamma si articola in tre filoni principali: la serie mobile Pro Precision 5, la serie mobile Pro Precision 7 e le workstation desktop Pro Precision 9, disponibili nelle varianti T2, T4 e T6.
Il pezzo forte è il Dell Pro Precision 9 T6, pensato per le aziende enterprise che necessitano di scalabilità estrema. Il sistema supporta fino a processori Intel Xeon 600 con 86 core, può montare fino a due GPU NVIDIA RTX PRO 6000 Blackwell da 600 watt ciascuna (o fino a cinque da 300 watt), e offre fino a 4 TB di RAM DDR5 ECC su 16 slot DIMM, oltre a 316 TB di storage e 15 slot PCIe. Una macchina pensata esplicitamente per training, simulazione e rendering AI in sessioni prolungate, con soluzioni termiche avanzate per mantenere le prestazioni stabili nel tempo.
Sul fronte mobile, il Dell Pro Precision 7 Series 16 monta processori Intel Core Ultra Series 3 con NPU fino a 50 TOPS e GPU RTX PRO Blackwell opzionali, fino a 64 GB di RAM LPDDR5x a 8533 MT/s e storage fino a 8 TB via PCIe Gen5. La serie 5 — nelle varianti 14S e 16S — si distingue invece per un design premium con scocca in alluminio su tre lati, Intel Panther Lake e opzioni di GPU RTX PRO Blackwell 500, 1000 e 2000. Tutte le nuove workstation sono parte integrante del programma Dell AI Factory with NVIDIA, l’ecosistema con cui Dell punta a semplificare l’adozione dell’intelligenza artificiale in azienda.
HP e HPE: workstation Z e server ProLiant
HP ha portato al GTC la propria linea HP Z Desktop Workstation, con l’obiettivo di renderla “future-proof” per le prossime generazioni di GPU Nvidia. Le workstation Z già supportano GPU fino alla NVIDIA RTX PRO 6000 Blackwell Workstation Edition e HP ha annunciato che presenterà ulteriori aggiornamenti alla sua HP Imagine il 24 marzo.
Sul versante enterprise, HPE ha fatto annunci ben più sostanziosi. La società ha dichiarato la disponibilità immediata di HPE Private Cloud AI con supporto per le GPU NVIDIA RTX PRO 6000 Blackwell Server Edition, incluse configurazioni air-gapped per ambienti ad alta sicurezza e l’integrazione con i blueprint NVIDIA AI-Q e Omniverse. Il supporto per le GPU RTX PRO 4500 Blackwell Server Edition sull’intero portfolio di server HPE ProLiant Compute è in rollout nel corso del Q1 e Q2 2026, mentre i nuovi rack di espansione di rete per HPE Private Cloud AI, che permetteranno di scalare fino a 128 GPU, saranno disponibili a luglio.
Lenovo: dall’inferenza ai gigawatt
Lenovo è stato probabilmente il vendor con il maggior numero di annunci strutturati al GTC 2026, presentando l’espansione del programma Lenovo Hybrid AI Advantage with NVIDIA. alla base c’è la convinzione che l’inferenza AI (e non più il training) sia diventata il collo di bottiglia operativo per le aziende e Lenovo vuole coprire tutto lo stack, dal device al data center fino al cloud su scala gigawatt.
Sul fronte workstation, il colosso cinese ha aggiornato la linea ThinkPad P con GPU RTX PRO Blackwell su modelli come ThinkPad P14s Gen 7, P16s Gen 5 e P1 Gen 9. La ThinkStation P5 Gen 2 desktop, in particolare, supporta fino a due GPU RTX PRO 6000 Blackwell Max-Q e il runtime NVIDIA OpenShell per agenti AI locali e sicuri. Ancora più interessante è la ThinkStation PGX, una stazione AI developer on-premise con 1 petaflop di calcolo AI e supporto a modelli fino a 200 miliardi di parametri.
Per il segmento server, Lenovo ha introdotto nuovi ThinkSystem e ThinkEdge ottimizzati per l’inferenza e disponibili in tre tier: uno basato su RTX PRO 6000 Blackwell Server Edition per multimodal inferencing su scala, uno su GPU Blackwell Ultra per training e fine-tuning e uno starter con RTX PRO 4500 Blackwell per deployment single-node. Lenovo rivendica miglioramenti di prestazioni fino a 3x per vision AI e 4x per content generation rispetto alle NVIDIA L4 della generazione precedente.
IBM: analytics GPU-native
Quella con IBM è stata una delle partnership più citate da Jensen Huang durante il keynote di apertura dell’evento. Per l’occasione, IBM ha formalizzato un’espansione della collaborazione con Nvidia focalizzata su tre aree principali:
- GPU-native data analytics: IBM e Nvidia stanno portando l’accelerazione CUDA direttamente nello strato dei dati, trasformando pipeline di analytics da processi batch lenti in motori di intelligenza in tempo reale. La tecnologia chiave è IBM cuDF, una libreria GPU-native per l’analisi di dati strutturati e non strutturati.
- Storage ad alte prestazioni per Nvidia: Nvidia ha selezionato l’IBM Storage Scale System 6000 (certificato e validato su piattaforme Nvidia DGX) per fornire 10 PB di storage ad alta velocità ai propri motori di analytics GPU. Un riconoscimento importante che posiziona IBM come partner infrastrutturale di primo piano nell’ecosistema Nvidia
- Cloud e GPU Blackwell Ultra: IBM ha annunciato che offrirà GPU Nvidia Blackwell Ultra su IBM Cloud a partire dal secondo trimestre 2026, integrate nell’IBM Red Hat AI Factory with NVIDIA, con server VPC a conformità enterprise e controlli di data residency
Cisco: AI factory sicure dal core all’edge
Il focus di Cisco all’evento di Nvidia è stato tutto incentrato sul concetto di Secure AI Factory, ovvero un’infrastruttura integrata per distribuire AI in modo sicuro e scalabile.
Le soluzioni presentate e discusse nelle sessioni tecniche includono:
- Cisco AI Defense: strumento per la sicurezza dei modelli AI e delle applicazioni che li utilizzano, pensato per proteggere i dati in transito verso e dai cluster GPU
- Splunk per infrastructure monitoring: integrazione tra Splunk e i cluster Nvidia per visibilità operativa end-to-end sulle AI factory
- Cisco Nexus One: piattaforma di gestione della rete AI per scalare fabric ad alte prestazioni, massimizzare l’utilizzo delle GPU e ridurre latenza e colli di bottiglia di rete
- Cisco Unified Edge: soluzione per l’inferenza AI distribuita sull’edge, che consente di portare modelli vicino ai dati senza doverli centralizzare nel data center





