Guardrails e Red Team sono i nuovi strumenti di F5 per la sicurezza dell’AI

La sicurezza AI sta entrando in una fase in cui le vecchie categorie (firewall, WAF, DDoS, API security( restano fondamentali ma non bastano più. Il motivo di fondo è che un sistema AI moderno non è un’applicazione tradizionale perché genera output, interpreta input in linguaggio naturale, interagisce con dati sensibili e spesso si collega ad altri servizi attraverso agenti autonomi. È un livello di complessità che rende inefficace l’idea di “mettere una barriera davanti” e considerare chiuso il problema.
In questo contesto si inserisce l’annuncio di F5, che ha reso disponibili due nuove soluzioni pensate esplicitamente per l’AI mission-critical: AI Guardrails e AI Red Team. La parte più interessante della proposta di F5 dal punto di vista tecnico è l’idea di spostare la sicurezza dove avvengono davvero le interazioni, ovvero il livello applicativo. È qui infatti che passano prompt, risposte, chiamate API, dati aziendali e decisioni automatizzate ed è qui che una prompt injection può trasformarsi in esfiltrazione di informazioni, o dove un jailbreak può aggirare policy interne senza lasciare tracce evidenti nei sistemi di sicurezza classici.
F5 insiste su tre requisiti che oggi le aziende chiedono con sempre meno pazienza: flessibilità di deployment, protezione agnostica rispetto ai modelli e capacità di aggiornare policy in tempo reale. Tradotto in termini operativi, significa poter proteggere un LLM commerciale, un modello open source, un fine-tuned interno o un agente multi-step senza riscrivere l’intera architettura di sicurezza ogni volta che cambia il backend. Un punto tutt’altro che teorico, perché nelle grandi organizzazioni i modelli non sono “uno”, ma diventano rapidamente decine, poi centinaia, fino a migliaia di istanze distribuite tra cloud, ambienti ibridi e segmenti on-prem.
AI Guardrails nasce proprio per fornire un livello di sicurezza runtime coerente, applicabile a qualsiasi modello e ambiente. L’obiettivo è ridurre il rischio di data leak e supportare la compliance rispetto a obblighi come GDPR e AI Act. Qui F5 aggiunge due elementi distintivi come l’osservabilità profonda e l’auditability di input e output. Si tratta cioè di mettere i team in condizione di ricostruire il “perché” di una risposta, requisito sempre più centrale in ambiti regolamentati dove la tracciabilità diventa parte della sicurezza.
A completare il quadro arriva AI Red Team, che sposta il focus dalla protezione in tempo reale alla scoperta preventiva delle vulnerabilità. È un approccio che ricalca la logica del penetration testing ma adattato al dominio AI, con testing avversario automatizzato e scalabile capace di simulare vettori di attacco comuni e meno noti. F5 lega questa soluzione a un database di vulnerabilità AI che, secondo l’azienda, si arricchisce di oltre 10.000 nuove tecniche di attacco al mese. Il valore in questo caso è l’idea di un sistema che apprende dal panorama delle minacce e traduce quelle scoperte in policy operative.
Il punto di contatto tra i due prodotti è probabilmente la parte più “industriale” dell’intera proposta. Le analisi di AI Red Team alimentano infatti le policy di AI Guardrails creando un ciclo continuo di feedback, in una visione che rispecchia la direzione in cui si sta muovendo la sicurezza moderna tra meno controlli statici, più adattamento, più telemetria e più policy dinamiche.
Inoltre, F5 posiziona Guardrails e Red Team all’interno della propria Application Delivery and Security Platform, legando le due funzioni alle difese già consolidate come API security, WAF e protezione DDoS. Ed è un passaggio strategico importante, perché se l’AI viene protetta con un set di soluzioni separato rispetto alle applicazioni tradizionali, la governance si spezza e i team finiscono per gestire policy disallineate, alert duplicati e processi di risposta più lenti.
(Immagine in apertura: Shutterstock)

