Con il Tanzu Agent Foundations, VMware vuole coordinare gli agenti enterprise in modo sicuro e osservabile

Costruire un agente AI funzionante in un ambiente isolato è diventato relativamente accessibile, ma portarlo in produzione all’interno di un’infrastruttura enterprise, con tutti i requisiti di governance, sicurezza e integrazione che questo comporta, è un’altra storia. È esattamente questo il divario che Broadcom ha scelto di affrontare con l’annuncio di VMware Tanzu Platform Agent Foundations, presentato all’AI in Finance Summit come estensione naturale del modello code-to-production già consolidato nella piattaforma Tanzu.
Una mossa che avviene in uno scenario in cui molte organizzazioni gestiscono ancora i carichi di lavoro AI in ambienti separati dal resto dell’infrastruttura applicativa, privi di accesso ai dati operativi critici e senza i controlli standardizzati che caratterizzano i sistemi in produzione. Questa segregazione rallenta il passaggio dagli esperimenti pilota a deployment scalabili, costringendo i team di platform engineering ad acquisire competenze specialistiche sull’infrastruttura AI che si sovrappongono alle competenze già consolidate sulla gestione delle applicazioni tradizionali.
Un runtime progettato per negare prima di concedere
La scelta architetturale più significativa di Tanzu Platform Agent Foundations è il modello deny-by-default che governa il comportamento degli agenti a runtime. A differenza infatti di ambienti più permissivi, dove le autorizzazioni vengono ritagliate a posteriori, questo runtime parte dal principio opposto che gli agenti non hanno accesso predefinito ad alcun sistema interno, modello o risorsa di rete. Ogni connessione deve essere quindi esplicitamente autorizzata attraverso service binding sicuri, garantendo che l’agente interagisca unicamente con le sorgenti dati e i servizi per cui è stato espressamente abilitato.
La gestione del software supply chain segue la stessa logica. Invece di affidarsi a Dockerfile definiti dagli utenti (vettore frequente di vulnerabilità non monitorate), la piattaforma utilizza Buildpack certificati per costruire, aggiornare e verificare automaticamente i container. La gestione dei segreti è inoltre applicata a livello strutturale, impedendo agli agenti di accedere a credenziali al di fuori del proprio perimetro operativo. VMware vDefend estende queste protezioni anche verso i servizi infrastrutturali e le integrazioni SaaS esterne, contenendo il rischio di movimento laterale in caso di compromissione.
L’integrazione con le API infrastrutturali di VMware Cloud Foundation è ciò che rende il provisioning degli agenti paragonabile, dal punto di vista operativo, alla gestione di qualsiasi altra applicazione enterprise. I team di platform engineering possono definire politiche di accesso ai modelli, configurare server Model Context Protocol e gestire un marketplace curato di servizi approvati da IT, senza che gli sviluppatori debbano interagire direttamente con l’infrastruttura sottostante. La complessità viene così astratta a livello di piattaforma, non eliminata, ma resa trasparente a chi deve costruire e iterare rapidamente.
Sul fronte dei dati, la piattaforma include servizi integrati che coprono le esigenze più comuni degli agenti stateful in ambito enterprise tra cui Tanzu for Postgres con estensione pgvector per la gestione di embedding vettoriali, servizi di caching, streaming e data flow e supporto per Spring AI memory services, che permette agli agenti di mantenere contesto e stato in linea con i pattern applicativi già consolidati nell’ecosistema Spring.
Scalabilità, alta disponibilità e controllo centralizzato dei modelli
Il comportamento del sistema a scala è gestito attraverso elastic scaling automatico, capace di adattare le risorse computazionali in base alla domanda del workload sia per agenti a vita breve, sia per quelli persistenti. L’alta disponibilità è garantita da ridondanza multilivello e meccanismi di self-healing che monitorano continuamente l’infrastruttura sottostante, mantenendo la continuità del servizio per applicazioni autonome mission-critical.
Un elemento che merita attenzione particolare è l’AI gateway integrato, che centralizza il controllo sull’accesso ai modelli e agli strumenti. Attraverso questo componente, è possibile gestire policy di utilizzo, controlli sui costi, filtri di sicurezza e disponibilità sia per modelli pubblici, sia per modelli privati ospitati su VCF. In un contesto enterprise dove la proliferazione di integrazioni AI non governate rappresenta un rischio reale, avere un punto di controllo centralizzato e auditabile è tutt’altro che un dettaglio accessorio.
(Immagine in apertura: Shutterstock)

