Il Model Context Protocol (MCP), protocollo aperto sviluppato da Anthropic alla fine del 2024 per standardizzare l’interazione tra agenti AI e servizi esterni, consente agli agenti di intelligenza artificiale e ai modelli linguistici di interagire con API di terze parti, lavorare con dati reali e compiere azioni per conto degli utenti.

L’adozione di MCP da parte di nomi importanti dell’industria tech con le ultime novità in casa Cloudflare, GitHub e HashiCorp rappresenta un passo significativo verso l’integrazione avanzata dell’intelligenza artificiale nei flussi di lavoro degli sviluppatori. Questi sviluppi evidenziano una tendenza crescente verso la creazione di strumenti e piattaforme che permettono agli agenti AI di interagire in modo più naturale e efficiente con i sistemi esistenti, migliorando la produttività e l’automazione nei processi di sviluppo e gestione dell’infrastruttura.

Cloudflare: espansione delle capacità AI con nuovi server MCP

Cloudflare ha recentemente annunciato il lancio di tredici nuovi server MCP, ampliando l’integrazione degli agenti AI con la propria piattaforma. Questi server permettono ai client AI di interagire con i servizi di Cloudflare attraverso il linguaggio naturale, semplificando attività come il debugging, l’analisi dei dati e il monitoraggio della sicurezza.

Inoltre, Cloudflare ha introdotto la possibilità di costruire e distribuire server MCP remoti sulla propria piattaforma, estendendo la portata e l’usabilità del protocollo. Questa funzionalità consente agli sviluppatori di sfruttare la rete globale di Cloudflare per eseguire server MCP, precedentemente limitati all’esecuzione locale.

BLOG-2808_4

GitHub: interazione avanzata con i repository tramite MCP

GitHub ha rilasciato il proprio server MCP open-source come parte dell’aggiornamento di GitHub Copilot, segnando la prima implementazione dello standard MCP sviluppato da Anthropic. Questo server, riscritto completamente in Go, mantiene tutte le funzionalità precedenti e introduce miglioramenti come descrizioni degli strumenti personalizzabili, scansione del codice integrata e una nuova funzione “get_me” per interrogazioni in linguaggio naturale, ad esempio “mostrami i miei repository privati”.

Con il server MCP, GitHub offre un gateway ufficiale per gli agenti AI per interagire con funzionalità come repository, pull request e issue. Gli sviluppatori possono automatizzare i flussi di lavoro di GitHub, estrarre e analizzare dati dai repository e costruire strumenti e applicazioni AI che interagiscono con l’ecosistema di GitHub. Da segnalare che Visual Studio Code ora supporta nativamente MCP in GitHub Copilot.

La comunità ha accolto positivamente questa evoluzione, con quasi 14.000 stelle su GitHub e oltre 150 pull request. Gli sviluppatori possono ora chiedere a Copilot di eseguire compiti che vanno oltre l’editor, come trovare file markdown senza autore e creare issue per aggiungerli. Questo flusso end-to-end porta un livello più alto di automazione e struttura a passaggi tradizionalmente manuali nel ciclo di vita dello sviluppo.

HashiCorp: integrazione di Terraform con server MCP

HashiCorp ha infine annunciato il rilascio del server MCP per Terraform, consentendo ai modelli AI di recuperare dettagli di configurazione aggiornati, come argomenti di input per un provider, modelli di utilizzo per un modulo popolare o l’ultima versione disponibile, emettendo query standardizzate a un endpoint MCP.

Questa integrazione permette agli agenti AI di accedere a informazioni in tempo reale sulle configurazioni di Terraform, migliorando l’efficienza e l’accuratezza nella gestione dell’infrastruttura come codice. Gli sviluppatori possono così automatizzare e ottimizzare i processi di provisioning e gestione delle risorse cloud, sfruttando le capacità degli agenti AI per interrogare e modificare le configurazioni in modo dinamico.