Mentre il carrozzone dell’IA generativa continua a prendere piede, Nvidia promette strumenti per accelerarlo ulteriormente. Il 21 marzo, il CEO Jensen Huang ha illustrato ai partecipanti alla conferenza per sviluppatori dell’azienda, GTC 2023, una serie di nuovi servizi che Nvidia spera vengano utilizzati dalle aziende per addestrare ed eseguire i propri modelli di IA generativa.

L’offerta as-a-service AI Foundations racchiude questi servizi cloud, con cui le aziende potranno costruire i propri modelli linguistici di grandi dimensioni (LLM), le tecnologie alla base dei sistemi di intelligenza artificiale generativa, ed eseguirli su scala, richiamandoli dalle applicazioni aziendali tramite le API di Nvidia.

Al momento del lancio ci saranno tre servizi Foundations, per ora ad accesso limitato o in anteprima privata: NeMo per la generazione di testi, Picasso per le immagini e BioNeMo per le strutture molecolari. Ogni offerta includerà modelli pre-addestrati, framework per l’elaborazione dei dati, database di personalizzazione, motori di inferenza e API a cui le aziende potranno accedere da un browser.

L’IA generativa in azione

Secondo Nvidia, il fornitore di dati finanziari Morningstar sta già studiando come utilizzare NeMo per estrarre informazioni utili sui mercati dai dati grezzi, attingendo all’esperienza del suo personale per mettere a punto i modelli. Il servizio Picasso consentirà alle aziende di addestrare modelli per generare immagini, video e persino modelli 3D personalizzati nel cloud. Nvidia sta collaborando con Adobe per offrire tali capacità generative all’interno degli strumenti di Adobe per i professionisti della creatività, come Photoshop e After Effects.

Nvidia sta anche cercando di fugare le preoccupazioni legate al copyright (ben note quando si parla di arte generata dall’IA) stringendo un accordo di licenza con la libreria di immagini stock Getty Images, che pagherà agli artisti le royalties sui ricavi generati dai modelli addestrati sulle opere presenti nel suo database. Nvidia sta collaborando con un’altra libreria, Shutterstock, per addestrare Picasso a creare modelli 3D in risposta a richieste di testo basate su immagini su licenza presenti nel suo database. Questi modelli 3D saranno disponibili per l’uso nei digital twin industriali che girano sulla piattaforma Omniverse di Nvidia.

nvidia ia generativa

Il CEO di Nvidia, Jensen Huang

Il terzo servizio di AI Foundations, BioNeMo, non si occupa di parole e immagini ma di strutture molecolari. I ricercatori possono utilizzarlo per progettare nuove molecole e prevederne il comportamento. Nvidia lo rivolge alle aziende farmaceutiche per la scoperta e la sperimentazione di farmaci. L’azienda di biotecnologie Amgen è stata citata come uno dei primi utenti del servizio.

Aggiunte all’infrastruttura IA

I servizi software AI Foundations di Nvidia verranno eseguiti in DGX Cloud, una nuova offerta di infrastruttura-as-a-service. DGX è il nome del supercomputer “in a box” di Nvidia e oggi la metà di tutte le aziende Fortune 100 ha il proprio supercomputer DGX. I fornitori di cloud come Oracle e Microsoft stanno iniziando a offrire l’accesso ai processori H100 su cui è costruito DGX e Amazon Web Services si unirà presto a loro.

Più avanti nel corso dell’anno, le aziende che non vogliono acquistare il proprio supercomputer DGX avranno la possibilità di noleggiare cluster di questi processori H100 su base mensile attraverso il servizio DGX Cloud, che sarà ospitato dai partner hyperscaler di Nvidia. È probabile che alcuni CIO utilizzino già hardware, software e servizi di Nvidia per supportare le applicazioni IA in azienda, ma l’ingresso di Nvidia nel mercato as-a-service solleva nuovi interrogativi.

“Avere Nvidia come fornitore di servizi significherà probabilmente avere un’unica fonte di responsabilità per il servizio e un’architettura di base familiare” , ha affermato il ricercatore di IDC Shane Rau. “Ma affidarsi a Nvidia per il servizio e l’architettura sottostante offre la prospettiva di un costoso lock-in nel caso in cui altri fornitori di servizi e architetture di soluzioni dovessero innovare più velocemente su alcuni aspetti, come le prestazioni o i costi”.

L’ultima notizia su questo versante riguarda una collaborazione tra Amazon Web Services e NVIDIA volta alla creazione dell’infrastruttura di intelligenza artificiale on-demand più scalabile al mondo, ottimizzata per l’addestramento di modelli linguistici di grandi dimensioni (LLM) e lo sviluppo di applicazioni di intelligenza artificiale generativa.

Il lavoro congiunto prevede nuove istanze P5 di Amazon Elastic Compute Cloud (Amazon EC2) di ultima generazione alimentate da GPU NVIDIA H100 Tensor Core e reti e scalabilità AWS, in grado di fornire fino a 20 exaFLOPS di prestazioni di elaborazione per la creazione e la formazione dei più grandi modelli di deep learning.

Con le nuove istanze EC2 P5, clienti come Anthropic, Cohere, Hugging Face, Pinterest e Stability AI saranno in grado di creare e addestrare i modelli ML su larga scala. L’ultima generazione di istanze EC2 permetterà a startup, imprese e ricercatori di scalare la loro infrastruttura per soddisfare le loro più complesse esigenze di machine learning, aprendo nuove possibilità di innovazione e sviluppo.