Gartner ha individuato sei passaggi per aiutare le organizzazioni a ridurre i rischi legati alla proliferazione incontrollata degli agenti AI. Secondo la società di ricerche di mercato, entro il 2028 una tipica azienda globale della Fortune 500 avrà in uso oltre 150.000 agenti rispetto ai meno di 15 del 2025, con un conseguente aumento significativo della dispersione degli agenti, della complessità IT e delle difficoltà di gestione.

Intervenendo oggi al Gartner Digital Workplace Summit di Londra, Max Goss, Sr. Director Analyst di Gartner, ha dichiarato: “Mentre CIO e responsabili IT assistono a un’esplosione degli agenti di IA all’interno delle loro organizzazioni, molti si trovano a gestire una proliferazione non governata di agenti che espone le aziende a una serie di rischi, tra cui disinformazione, condivisione eccessiva di dati e perdita di informazioni. Le organizzazioni devono trovare un equilibrio che consenta di governare gli agenti e gestirne la proliferazione, mettendo al tempo stesso i dipendenti nelle condizioni di innovare con questi strumenti in modo sicuro.” 

Sempre secondo Gross, molte organizzazioni ricorrono al blocco o alla limitazione dell’uso degli agenti AI, ma questa non è una soluzione sostenibile nel lungo periodo. Se infatti i dipendenti non possono lavorare con gli strumenti approvati dall’azienda, è probabile che aggirino i controlli organizzativi e inizino a utilizzare soluzioni di shadow AI, che comportano rischi ancora maggiori. Le organizzazioni devono quindi trovare un equilibrio che permetta di governare gli agenti e contenerne la proliferazione, consentendo al tempo stesso ai dipendenti di innovare con questi strumenti in modo sicuro.

Gartner ha individuato sei passaggi per aiutare CIO e responsabili IT a definire governance e guardrail in grado di ridurre i rischi legati al cosiddetto agent sprawl:

agenti ai

Crediti: Shutterstock

  • Definire governance e policy per gli agenti: stabilire regole chiare su quando e come gli agenti possono essere sviluppati, chi può crearli e condividerli e quali connettori sono consentiti
  • Creare un inventario centralizzato degli agenti: le organizzazioni possono utilizzare strumenti di AI TRiSM (AI trust, risk and security management) per individuare e classificare gli agenti presenti nelle varie applicazioni, sia quelli provenienti da strumenti approvati, sia quelli derivanti da soluzioni di shadow AI. Una volta creato un inventario degli agenti, è possibile iniziare a sviluppare controlli adattivi per applicare le policy corrette in base al livello di rischio presentato da ciascun agente
  • Definire identità, permessi e modello di ciclo di vita degli agenti: gestire l’identità degli agenti, il modello dei permessi e i controlli di accesso, oltre a riesaminare e dismettere gli agenti ridondanti per evitare una proliferazione incontrollata
  • Sviluppare una governance delle informazioni per l’IA: governare le informazioni a cui lo strumento o l’agente AI può accedere e assicurarsi che esistano processi per mantenere i dati aggiornati, gestirne i permessi per evitare eccessi di condivisione e archiviarli quando diventano obsoleti
  • Monitorare e correggere il comportamento degli agenti: garantire una visibilità continua sull’utilizzo degli agenti, assicurare la conformità alle policy, rilevare comportamenti anomali e correggere gli agenti che superano il perimetro operativo previsto o la soglia di rischio accettabile
  • Promuovere una cultura dell’uso responsabile dell’IA: supportare la forza lavoro con programmi di formazione e con una community of practice, così da favorire l’adozione e diffondere le migliori pratiche nella gestione degli agenti all’interno dell’organizzazione

(Immagine in apertura: Shutterstock)