Dell Technologies ha annunciato importanti aggiornamenti alla propria offerta AI Factory, con l’obiettivo di semplificare, rendere più efficienti e sicure le implementazioni AI su larga scala. Questi sviluppi includono un’infrastruttura AI potente ma efficiente dal punto di vista energetico, nuove soluzioni integrate con partner tecnologici di rilievo e servizi professionali pensati per accelerare l’adozione dell’AI in azienda.

AI, una priorità strategica con sfide ancora da superare

L’intelligenza artificiale è ormai centrale per il business con il 75% delle organizzazioni che considera l’AI un elemento cruciale per la propria strategia, mentre il 65% dichiara di riuscire a portare i propri progetti AI in produzione con successo. Tuttavia, permangono sfide significative come la qualità dei dati, i problemi di sicurezza e l’elevato costo delle infrastrutture, che rallentano la diffusione e l’efficacia delle soluzioni AI.

Dell si propone di affrontare questi ostacoli con un approccio integrato, che promette un risparmio fino al 62% rispetto al cloud pubblico per l’inferenza di grandi modelli linguistici (LLM) on-premises. L’offerta Dell copre l’intera filiera, dai dispositivi client al data center, dall’edge computing al cloud, supportando oltre 3.000 clienti in tutto il mondo in diversi settori.

data center Dell

Dell Pro Max Plus

Infrastruttura AI end-to-end: dal PC al data center

Tra le novità più significative spicca la workstation mobile Dell Pro Max Plus, prima al mondo a integrare una NPU discreta (Neural Processing Unit) di livello enterprise con la scheda Qualcomm AI 100 PC. Questo dispositivo consente inferenze AI rapide e sicure direttamente sul dispositivo, gestendo modelli di grandi dimensioni fino a 109 miliardi di parametri, solitamente eseguiti in cloud. La scheda di inferenza Qualcomm è dotata di 32 core AI e 64 GB di memoria, pensata per i data scientist che sviluppano modelli di intelligenza artificiale per l’edge.

Dal punto di vista dell’efficienza energetica, Dell ha innovato il raffreddamento dei data center con il PowerCool Enclosed Rear Door Heat Exchanger (eRDHx), un sistema capace di catturare il 100% del calore prodotto e di ridurre i costi di raffreddamento fino al 60% rispetto ai sistemi tradizionali. Integrando questa tecnologia nei rack IR7000, le aziende possono aumentare la densità di calcolo fino al 16% senza incrementare i consumi, ottimizzando la gestione termica fino a 80 kW per rack, ideale per applicazioni AI e HPC (High Performance Computing). Il sistema include anche funzionalità avanzate per il monitoraggio termico e la prevenzione delle perdite, oltre a un controllo unificato dei componenti tramite il Dell Integrated Rack Controller.

PowerCool Enclosed Rear Door Heat Exchanger

PowerCool Enclosed Rear Door Heat Exchanger

Sul fronte server, i nuovi PowerEdge XE9785 e XE9785L con GPU AMD MI350 offrono prestazioni di inferenza fino a 35 volte superiori, grazie anche alla memoria HBM3e da 288 GB per GPU. Disponibili con raffreddamento a liquido o ad aria, questi server sono progettati per massimizzare efficienza e performance mantenendo bassi i costi energetici.

Piattaforme dati e sicurezza: qualità e scalabilità

L’AI è efficace solo se supportata da dati di qualità e infrastrutture sicure. Per questo, Dell ha potenziato la propria AI Data Platform, migliorando l’accesso e la gestione di dati strutturati, semi-strutturati e non strutturati. Il file system parallelo Project Lightning, tra i più veloci al mondo, raddoppia il throughput rispetto alla concorrenza, accelerando i tempi di training anche per workload complessi.

Parallelamente, gli aggiornamenti al Data Lakehouse semplificano i flussi di lavoro AI, migliorando casi d’uso come motori di raccomandazione, ricerche semantiche e analisi dell’intento degli utenti. Questi strumenti facilitano la creazione di dataset ottimizzati per l’AI già pronti per l’analisi e la produzione di insight. A livello di sicurezza, Dell AI Security and Resilience Services offre una protezione completa di infrastruttura, dati, applicazioni e modelli AI, fondamentale per garantire fiducia e conformità nelle implementazioni AI aziendali.

Ecosistema di partner per soluzioni AI personalizzate

Dell si avvale di una rete di partnership strategiche per fornire soluzioni AI personalizzabili, integrate facilmente nei sistemi IT esistenti. Tra le collaborazioni spiccano:

  • Cohere North: implementazione on-premises per abilitare flussi di lavoro intelligenti e autonomi con controllo completo sulle operazioni
  • Google Gemini e Distributed Cloud on-premises: soluzioni disponibili sui server Dell PowerEdge XE9680 e XE9780 per innovare direttamente dove risiedono i dati
  • Llama di Meta: Dell AI Solutions consente di creare applicazioni basate su agenti AI sfruttando Llama Stack e Llama 4
  • Glean: prima architettura di distribuzione on-premises per piattaforme di ricerca aziendale e agenti AI scalabili
  • Mistral AI: soluzioni congiunte per flussi di lavoro di knowledge management sicuri e personalizzabili

Dell AI Factory si arricchisce infine di due importanti sviluppi tecnologici. Con AMD, spicca l’introduzione di 200G di rete di storage e di uno stack software aperto AMD ROCm aggiornato, che semplificano i workflow AI e supportano modelli complessi come Llama 4. La collaborazione garantisce anche supporto Day 0 e container ottimizzati per prestazioni AI. Con Intel, la nuova Dell AI Platform sfrutta invece gli acceleratori Gaudi 3 AI per infrastrutture scalabili e performanti.

(Immagine in apertura: Shutterstock)