Gartner: entro il 2028 metà degli incidenti cyber riguarderà le applicazioni AI aziendali

Secondo le ultime previsioni di Gartner, entro il 2028 metà delle attività di incident response nelle aziende sarà legata a incidenti che coinvolgono applicazioni AI sviluppate su misura.
Il punto critico riguarda la velocità con cui le organizzazioni stanno adottando soluzioni AI, spesso costruite internamente o fortemente personalizzate. Questi sistemi vengono messi in produzione in fasi ancora immature del loro ciclo di vita, con test incompleti e controlli di sicurezza non ancora consolidati. Come sottolineato da Christopher Mixter, analista di Gartner, la complessità dinamica di queste applicazioni rende difficile garantire una protezione continua nel tempo.
Le applicazioni AI introducono infatti una nuova categoria di vulnerabilità rappresentata da modelli che apprendono, si adattano e interagiscono con dati in modo non sempre prevedibile. Tecniche come il prompt injection o l’abuso dei flussi informativi diventano così vettori di attacco concreti, mentre i tradizionali strumenti di difesa faticano a tenere il passo.
In questo contesto, Gartner evidenzia un gap organizzativo significativo, per il quale molte funzioni di sicurezza non dispongono ancora di processi strutturati per gestire incidenti legati all’AI. Questo si traduce in tempi di risposta più lunghi e in un impiego maggiore di risorse per contenere e risolvere gli eventi. Di conseguenza, i responsabili della sicurezza devono essere coinvolti fin dalle prime fasi dei progetti AI, contribuendo a definire requisiti, allocazione delle risorse e aspettative di controllo.
Al tempo stesso, si delinea una nuova categoria tecnologica destinata a diventare centrale come quella delle piattaforme di sicurezza per l’AI, tanto che entro il 2028 oltre la metà delle imprese adotterà soluzioni dedicate per proteggere sia l’uso di servizi AI di terze parti sia le applicazioni sviluppate internamente. Queste piattaforme offrono visibilità centralizzata, enforcement delle policy e monitoraggio continuo delle attività AI, introducendo un livello di governance finora assente.
Un altro nodo critico riguarda i dati. Gartner prevede che fino al 2030 circa un terzo del lavoro IT sarà dedicato alla gestione del cosiddetto “debito dati” legato all’AI. La maggior parte delle organizzazioni dispone infatti di dati non strutturati o insufficientemente protetti, un limite che ostacola l’adozione sicura dell’intelligenza artificiale. La risposta passa attraverso sia l’estensione delle strategie di data loss prevention, sia una collaborazione più stretta tra team di sicurezza, data analytics e sviluppo AI.
Il tema della conformità normativa aggiunge un ulteriore livello di complessità. Entro il 2027, il 75% delle organizzazioni regolamentate rischia infatti sanzioni significative a causa di processi di compliance AI ancora manuali e poco scalabili. Le normative stanno convergendo verso un approccio sistemico alla gestione del rischio, rendendo necessario un passaggio verso modelli automatizzati di governance, risk e compliance.
Le tensioni geopolitiche stanno inoltre influenzando le strategie di sicurezza. Gartner stima che entro il 2027 il 30% delle aziende richiederà un controllo sovrano completo sui propri sistemi di sicurezza cloud. Questo implica una revisione delle scelte tecnologiche e dei fornitori, con un’attenzione crescente ai requisiti locali e alla gestione del dato in contesti regolatori frammentati.
Infine, emerge con forza il tema dell’identità come superficie di attacco primaria. La proliferazione di identità digitali sta infatti creando lacune nella visibilità e aumentando il rischio di compromissione delle credenziali. Come conseguenza, secondo Gartner il 70% dei CISO adotterà entro il 2028 piattaforme avanzate di identity intelligence per ridurre l’area di attacco IAM e migliorare le capacità di rilevamento e risposta.
(Immagine in apertura: Shutterstock)

