Alla conferenza Build 2024 dedicata agli sviluppatori che si è aperta ieri, Microsoft, per voce del CEO Satya Nadella, ha annunciato la disponibilità generale di Azure AI Studio.

“Con Azure AI Studio, forniamo una soluzione di tooling end-to-end per sviluppare e salvaguardare le app copilot che costruite”, ha dichiarato Nadella durante il keynote di apertura della conferenza. “Si tratta di un ambiente di sviluppo end-to-end per costruire, addestrare e mettere a punto modelli di intelligenza artificiale e farlo in modo responsabile”.

Microsoft Hugging Face

Microsoft sta inoltre rendendo disponibile l’ultimo modello multimodale di OpenAI (GPT-4o) in Azure Studio e come API, ha introdotto Phi-3-vision (un modello multimodale che riunisce le capacità linguistiche e visive) e sta aggiungendo la possibilità di creare modelli personalizzati in Azure AI. “Riconosciamo che ci sono applicazioni avanzate in cui è necessaria una maggiore personalizzazione di questi modelli per casi d’uso molto specifici”, ha spiegato Nadella.

Lo scopo di queste novità è aiutare gli sviluppatori a creare quelli che Microsoft chiama “copilot”, ovvero applicazioni infuse di IA generativa. Nabila Babar, principal program manager per la piattaforma IA di Microsoft, ha dichiarato che AI Studio semplifica la creazione e la gestione dei servizi IA e la supervisione della sicurezza e della qualità.

652x274

“La piattaforma, che offre più di 1.600 modelli nel suo catalogo di modelli, di fornitori come Meta, Mistral, Microsoft e OpenAI, include i servizi Azure AI come Azure OpenAI Service e Azure AI Search e gli strumenti già noti di Azure Machine Learning, come il prompt flow per le esperienze guidate per la prototipazione rapida“, ha scritto Babar. “Supporta SDK e CLI code-first, integrati con Azure Developer (AZD) CLI e AI Toolkit for Visual Studio Code per fornire la scalabilità necessaria all’aumentare della domanda”.

Queste le altre novità annunciate per Azure AI Studio:

  • Recupero dei dati con Azure AI Search: Azure AI Search è ora perfettamente integrato in Azure AI Studio per i casi d’uso di Retrieval-Augmented Generation (RAG), consentendo agli sviluppatori di utilizzare tecniche di recupero dei dati per basare le loro risposte su informazioni sicure e specifiche del cliente
  • Fine tuning: Per le applicazioni di IA generativa, Microsoft ha annunciato che gli sviluppatori possono utilizzare RAG per le attività che richiedono conoscenze esterne e il fine tuning per le attività con dati specifici etichettati. Il fine-tuning personalizza i modelli pre-addestrati per compiti specializzati in un ambito ristretto. In Azure AI Studio, gli utenti possono mettere a punto modelli come Babbage, Davinci, GPT-35-Turbo, GPT-4, oltre alle famiglie Llama 3 e Phi-3.
  • Tracciamento e debug: Il tracciamento è fondamentale per comprendere i complessi flussi di lavoro del copilot, dove i punti di interruzione IDE tradizionali sono insufficienti a causa delle operazioni asincrone e dei dati in streaming. La funzione di tracing di Azure AI Studio, accessibile tramite l’SDK di prompt flow, aiuta il debugging tracciando la latenza, gli errori LLM, l’uso dei token, le chiamate di funzione e i problemi di dipendenza. Gli sviluppatori possono utilizzare un playground locale per effettuare test unitari completi, registrando le tracce in Azure AI Studio o in un repository locale, avviando il servizio dalla riga di comando o automaticamente con l’avvio delle tracce.

Grazie inoltre a una partnership appena annunciata con Hugging Face, l’Azure AI Model Catalog include ora anche 20 modelli della startup IA, tra cui Rhea-72B-v0.5 di David Kim e Multiverse-70B di MTSAIR. L’accordo tra Microsoft e Hugging Face rende disponibile a chi utilizza Hugging Face Hub l’infrastruttura AMD di Azure, in particolare le macchine virtuali ND MI300X v5 con GPU AMD.

large

Infine, Microsoft ha ideato una funzione Dev Mode per Hugging Face Spaces per la creazione e l’hosting di modelli, che consente agli sviluppatori di collegare Visual Studio Code al proprio Space e di modificare il codice direttamente, in locale o nel browser.