Al Computex è sfida frontale tra Intel e Nvidia: tutti vogliono fare tutto

Al Computex 2025 di Taipei in svolgimento in questi giorni, si è assistito a un inatteso incrocio di annunci da parte di Intel e Nvida (quasi una sorta di “invasione di campo” reciproca), con la prima che ha presentato nuove GPU per AI e workstation e la seconda che ha annunciato un server x86 con 8 GPU per integrarsi nelle infrastrutture IT delle aziende.
Intel a tutta GPU
Partendo da Intel, le nuove GPU Arc Pro B60 e B50, basate sull’architettura Xe2, sono dotate di core AI Intel Xe Matrix Extensions (XMX) e unità di ray tracing avanzate, offrendo capacità ad alte prestazioni a creatori di contenuti, sviluppatori e ingegneri. Queste GPU sono infatti progettate per carichi di lavoro di inferenza AI e applicazioni workstation onerose, integrano rispettivamente 24 GB e 16 GB di memoria e scalabilità multi-GPU, offrendo una soluzione versatile per creativi, sviluppatori di intelligenza artificiale e professionisti.
Le GPU sono inoltre ottimizzate per workstation AEC (architettura, ingegneria, costruzione) e di inferenza e sono compatibili con driver consumer e professionali su Windows. Su Linux, le GPU supportano invece uno stack software containerizzato per semplificare le distribuzioni di intelligenza artificiale e saranno progressivamente aggiornate con funzionalità e ottimizzazioni.
L’altro annuncio di Intel riguarda una nuova piattaforma configurabile di classe workstation (nome in codice Project Battlematrix) basata su Intel Xeon e progettata per ridurre i punti di attrito per gli sviluppatori di intelligenza artificiale. Supporta fino a otto GPU Intel Arc Pro B60 da 24 GB per abilitare modelli di intelligenza artificiale di medie dimensioni (fino a 150 miliardi di parametri) e accurati con un massimo di 192 GB di RAM video.
La GPU Intel Arc Pro B60 sarà disponibile in campionamento a partire da giugno presso i partner di schede madri aggiuntive tra cui ASRock, Gunnir, Lanner, Maxsun, Onix, Senao e Sparkle, mentre per la Arc Pro B50 bisognerà attendere luglio.
Nell’ambito dell’ampliamento della propria strategia di intelligenza artificiale, Intel ha introdotto anche nuove opzioni di implementazione per gli acceleratori AI Intel Gaudi 3:
- Le schede PCIe Intel Gaudi 3 supportano l’inferenza AI scalabile negli ambienti server dei data center esistenti. Utilizzando modelli AI come Llama, i clienti, dalle piccole alle grandi imprese, beneficiano della flessibilità di eseguire modelli che vanno da Llama 3.1 8B a Llama 4 Scout o Maverick, grazie alle configurazioni scalabili disponibili. Le schede PCIe Intel Gaudi 3 saranno disponibili nella seconda metà del 2025.
- I progetti di riferimento del sistema Intel Gaudi 3 rack scale supportano fino a 64 acceleratori per rack e offrono 8,2 TB di memoria ad alta larghezza di banda. Un design aperto e modulare aiuta a evitare il lock-in con un singolo fornitore, mentre il backplane cablato e il cablaggio 2D full-rack blind-mate semplificano l’installazione e la manutenzione. Grazie al raffreddamento a liquido, questi sistemi offrono prestazioni elevate e contribuiscono a tenere sotto controllo il costo totale di possesso (TCO)
Il nuovo server AI di Nvidia
Passando a NVIDIA, durante la GPU Technology Conference (GTC) organizzata dall’azienda in concomitanza con il Computex, il CEO Jensen Huang ha presentato il nuovo progetto RTX PRO 6000 Blackwell Server Edition, un design server pensato per coniugare carichi di lavoro tradizionali aziendali con applicazioni avanzate di intelligenza artificiale agentica. La soluzione è basata su processori x86 e integra otto GPU RTX PRO 6000 Blackwell Server Edition, ciascuna dotata di 24.064 core CUDA, 752 Tensor core di quinta generazione e 188 RT core di quarta generazione, con una potenza di calcolo fino a 120 TFLOPS FP32.
Il server è dotato di uno switch interno dedicato che consente la comunicazione diretta tra GPU tramite connessioni a 800 Gbps, elemento chiave per garantire prestazioni elevate in ambito AI. Il design è compatibile con gli ambienti enterprise esistenti, supporta Kubernetes e hypervisor di Broadcom, Nutanix e Red Hat e può gestire anche carichi di lavoro tradizionali come ERP o virtualizzazione desktop, senza richiedere strumenti di gestione nuovi o specifici.
Huang ha sottolineato come Nvidia stia ridefinendo calcolo, rete e storage per l’era dell’intelligenza artificiale, grazie anche alla propria piattaforma di data AI che ottimizza il flusso di dati tra lo storage esterno e le GPU. Le prime unità RTX PRO saranno disponibili da luglio grazie ai partner Nvidia.
Nel corso del keynote, Huang ha anche ribadito il ruolo centrale degli AI agent nello sviluppo interno di Nvidia, pur riconoscendo che la loro diffusione va regolata. Per questo, l’azienda sta sviluppando strumenti che possano fungere da “reparto HR per gli agenti AI”, gestendone comportamenti, autorizzazioni e interazioni.
È stato inoltre annunciato l’arrivo nel terzo trimestre dei nuovi acceleratori Blackwell serie 300 destinati sia a datacenter, sia a workstation desktop, aprendo la strada a PC AI da 20 petaFLOPS. Infine, ampio spazio è stato dedicato alla robotica, ambito che Nvidia punta a rivoluzionare con lo sviluppo di robot umanoidi. Huang sostiene che, al contrario degli attuali robot di nicchia, i robot progettati per lavorare al fianco degli esseri umani avranno applicazioni più ampie e quindi favoriranno l’economia di scala, aprendo un mercato potenziale da migliaia di miliardi di dollari.
(Immagine in apertura: Shutterstock)