All’evento Build, Microsoft abbraccia il protocollo MCP e propone l’Open Agentic Web

Alla conferenza Build 2025 dedicata agli sviluppatori, Microsoft ha delineato una strategia chiara e ambiziosa per il futuro dello sviluppo software e dell’intelligenza artificiale agentica. Il fulcro della visione è Open Agentic Web, una piattaforma unificata, aperta e sicura in cui gli sviluppatori possono sfruttare l’IA non solo per accelerare la scrittura del codice, ma per trasformare radicalmente l’intero ciclo di vita dello sviluppo, abilitare nuovi agenti aziendali e accelerare la scoperta scientifica. L’obiettivo è mettere strumenti evoluti nelle mani degli sviluppatori per consentire a organizzazioni di ogni tipo di contribuire in modo sostanziale al progresso.
Microsoft ha inoltre introdotto aggiornamenti significativi a GitHub, con il passaggio di Copilot da assistente in-editor ad agente di codifica asincrono e multi-funzionale. La chat Copilot diventa open source in VS Code, favorendo una comunità più aperta e collaborativa, mentre Windows AI Foundry fornisce una piattaforma affidabile per addestramento e inferenza di modelli AI direttamente su client e cloud, con API semplificate per visione e linguaggio.
Con l’introduzione del servizio Azure AI Foundry Agent, Microsoft abilita l’orchestrazione di agenti AI multipli e specializzati, integrando framework come Semantic Kernel e AutoGen. La nuova osservabilità consente il monitoraggio trasparente di performance, sicurezza e costi e, per governare questi agenti, Microsoft Entra Agent ID assegna identità uniche, mentre l’integrazione con Purview garantisce sicurezza e conformità.
In parallelo, Microsoft 365 Copilot Tuning permette di addestrare agenti su dati e processi aziendali in modo low-code. Questi agenti eseguono compiti altamente accurati e verticali in modo sicuro all’interno del perimetro di Microsoft 365 (uno studio legale, ad esempio, può creare un agente che genera documenti allineati con l’esperienza e lo stile dell’organizzazione). Inoltre, la nuova orchestrazione multi-agente in Copilot Studio collega più agenti, permettendo loro di combinare competenze e affrontare compiti più ampi e complessi.
Per promuovere l’interoperabilità, Microsoft supporta attivamente il Model Context Protocol (MCP), contribuendo alla sua adozione con nuove specifiche di autorizzazione e un registro server pubblico/privato. Su questo versante sono stati annunciati due nuovi contributi all’ecosistema MCP:
- Una specifica di autorizzazione aggiornata, che consente alle persone di utilizzare i propri metodi di autenticazione fidati per dare agli agenti e alle app AI-powered l’accesso a dati e servizi come unità di archiviazione personali o servizi in abbonamento
- Progettazione di un servizio di registro server MCP, che consente a chiunque di implementare repository centralizzati aggiornati, pubblici o privati, per le voci del server MCP.
Spazio poi al nuovo progetto NLWeb, che rappresenta un’iniziativa cruciale per rendere il web “agente-compatibile”, consentendo interazioni conversazionali dirette tra utenti, contenuti e agenti AI, in un’ottica simile a quanto HTML ha fatto per il web classico.
Nel campo della ricerca, è stata presentata Microsoft Discovery, una piattaforma progettata per trasformare la scoperta scientifica con l’AI agentica. Lo strumento mira a ottimizzare i processi R&D in ambiti critici come la sostenibilità e la farmacologia, riducendo drasticamente i tempi di sviluppo e commercializzazione di nuove soluzioni.
Microsoft ha inoltre annunciato un’importante evoluzione nella sua strategia legata all’AI, ampliando il proprio ecosistema di modelli ospitati nei propri data center. Oltre a quelli di OpenAI, il colosso di Redmond integrerà i modelli di xAI (Grok 3 e Grok 3 Mini), Meta (Llama), Mistral e Black Forest Labs, portando il numero totale di modelli disponibili su Azure a oltre 1900.
Questa mossa conferma l’intento di Microsoft di posizionarsi come attore neutrale nell’arena dell’AI, riducendo la dipendenza da OpenAI, di cui è comunque partner strategico, e adottando un approccio più aperto e diversificato. Nel corso del keynote di apertura dell’evento, Satya Nadella, CEO dell’azienda, ha sottolineato la possibilità per gli sviluppatori di combinare liberamente modelli diversi, usufruendo delle stesse garanzie di affidabilità offerte per quelli di OpenAI.
Infine, sono stati introdotti nuovi strumenti come Model Leaderboard, che classifica i modelli AI con le migliori prestazioni in diverse categorie e compiti, e Model Router, progettato per selezionare il modello ottimale per una query o un compito specifico in tempo reale.