Dell Technologies ha ampliato il suo portafoglio Generative AI Solutions per massimizzare gli sforzi dell’IA generativa e supportare i carichi di lavoro nei cloud pubblici, negli ambienti on-premise e nell’edge. “Le aziende hanno bisogno di una solida base di dati con l’infrastruttura, il software e i servizi giusti” ha dichiarato Jeff Boudreau, Chief AI Officer di Dell Technologies. “È quello che stiamo costruendo con le nostre soluzioni di IA generativa”.

Personalizzazione dei modelli GenAI per massimizzare i dati proprietari

La soluzione Dell Validated Design for Generative AI with NVIDIA for Model Customization, disponibile a livello globale attraverso i canali tradizionali e Dell APEX a partire da fine ottobre, offre modelli pre-addestrati che estraggono intelligenza dai dati senza dover costruire modelli da zero. Questa soluzione fornisce le migliori pratiche per la personalizzazione e la messa a punto dei modelli GenAI in base ai risultati desiderati, contribuendo a mantenere le informazioni sicure e in sede. Grazie a una struttura scalabile per la personalizzazione, le aziende hanno ora a disposizione diversi modi per adattare i modelli GenAI per svolgere compiti specifici con i loro dati proprietari. Il suo design modulare e flessibile supporta un’ampia gamma di requisiti computazionali e di casi d’uso, che spaziano dalla diffusione dell’addestramento all’apprendimento per trasferimento e alla messa a punto immediata.

I progetti Dell Validated Designs for Generative AI supportano ora sia la messa a punto del modello, sia l’inferenza, consentendo agli utenti di implementare più rapidamente i modelli di IGAI con un’infrastruttura comprovata che comprende il server di IA Dell PowerEdge XE9680 o PowerEdge XE8640, con una scelta di GPU NVIDIA Tensor Core e software NVIDIA AI Enterprise, che offre framework, modelli pre-addestrati e strumenti di sviluppo, come il framework NVIDIA NeMo, e software Dell.

dell ia generativa

“Stiamo implementando i server Dell PowerEdge XE9680 con le GPU NVIDIA H100 Tensor Core nel cluster di calcolo ad alte prestazioni di Princeton per la modellazione di linguaggi di grandi dimensioni per contribuire a nuovi livelli di scoperta”, ha dichiarato Sanjeev Arora, Charles C. Fitzmorris Professor in Computer Science, Princeton. “Questo sistema offre ai ricercatori di scienze naturali, ingegneria, scienze sociali e umanistiche l’opportunità di applicare potenti modelli di intelligenza artificiale al loro lavoro in aree come la visualizzazione, la modellazione e l’informatica quantistica“.

Preparare dati, persone e processi per GenAI

Dell sta inoltre applicando i suoi processi e le sue competenze per aiutare i clienti a generare risultati di business migliori e più rapidi con l’ampliamento delle capacità dei servizi professionali GenAI:

  • I Data Preparation Services forniscono ai clienti una serie di dati puliti e accurati nel formato giusto, consentendo ai progetti di IA di procedere senza intoppi, semplificando l’integrazione dei dati e fornendo un output di dati di qualità
  • I Dell Implementation Services creano una piattaforma GenAI operativa per l’inferenza e la personalizzazione dei modelli, accelerando il time to value
  • Gli Education Services aiutano i clienti ad acquisire le competenze fondamentali per colmare il divario di capacità GenAI

Modernizzare l’infrastruttura dei dati per l’IA e l’analisi

Dell e Starburst stanno rafforzando il loro rapporto per aiutare i clienti ad accelerare gli sforzi di AI e analytics. Ciò culminerà con una soluzione di data lakehouse disponibile nella prima metà del 2024 che integrerà il software di analisi di Starburst con la piattaforma di calcolo PowerEdge di Dell, aiutando i clienti a estrarre informazioni dai dati ovunque essi risiedano. Grazie ai principi del software aperto, i clienti otterranno un accesso facile e più sicuro ai dati multicloud per ottenere il massimo valore dai flussi di lavoro e dalle implementazioni di analisi datie IA.

“I nostri clienti hanno bisogno di una solida piattaforma di dati per accedere a dati distribuiti in ambienti multicloud per guidare e rendere operativi gli sforzi di IA” ha dichiarato Justin Borgman, CEO di Starburst. “Integrando le nostre profonde capacità di analisi con l’infrastruttura leader e i servizi aziendali globali di Dell, possiamo offrire ai clienti una soluzione di data lakehouse aperta e multicloud che rende rapidamente e facilmente disponibili i dati per i flussi di lavoro IA ovunque”.

Tutti i modelli supportati e validati

Ecco quali modelli sono stati testati e validati sui sistemi Dell.

ModelloDescrizioneContainer usato per la validazione
NeMo GPT 20BLanguage model basato su transformer con  20 Mld di parametriTriton – nvcr.io/ea-bignlp/bignlp-inference:22.08-py3

NeMo – nvcr.io/nvidia/nemo:23.04

NeMo GPT-2B-001Language model basato su transformer con  2 Mld di parametriTriton – nvcr.io/ea-bignlp/bignlp-inference:22.08-py3

NeMo – nvcr.io/nvidia/nemo:23.04

NeMo GPT 1.3BLanguage model basato su transformer con  1.3 Mld di parametriTriton – nvcr.io/ea-bignlp/bignlp-inference:22.08-py3

NeMo – nvcr.io/nvidia/nemo:23.04

NeMo GPT 345MLanguage model basato su transformer con  345 milioni di parametriTriton – nvcr.io/ea-bignlp/bignlp-inference:22.08-py3

NeMo – nvcr.io/nvidia/nemo:23.04

NeMo GPT 5BLanguage model basato su transformer con  5 Mld di parametriTriton – nvcr.io/ea-bignlp/bignlp-inference:22.08-py3

NeMo – nvcr.io/nvidia/nemo:23.04

BLOOM 7BBig Science Large Open-science Open-access Multilingual Language Modelnvcr.io/nvidia/cuda:12.1.0-devel-ubi8
Llama 2 7BModello basato su transformer e ottimizzato con  7 Mld di parametrinvcr.io/nvidia/pytorch:23.06-py3
Llama 2 13BModello basato su transformer e ottimizzato con  13 Mld di parametrinvcr.io/nvidia/pytorch:23.06-py3
Stable Diffusion 2.0Modello per la generazione di immagini da prompt testualipython:latest