IBM: L’adozione dell’IA avanza più in fretta della sicurezza e i criminali sfruttano il divario

L’adozione dell’IA da parte delle aziende sta procedendo a un ritmo vertiginoso, ma secondo IBM questa corsa all’innovazione sta lasciando indietro due pilastri fondamentali: la sicurezza e la governance. Il rischio? Attacchi informatici sempre più sofisticati, che prendono di mira modelli e applicazioni IA non adeguatamente protetti.
È quanto emerge dal Cost of a Data Breach Report 2025, uno studio annuale che Big Blue realizza sulla base di violazioni reali subite da centinaia di organizzazioni nel mondo. Quest’anno, l’analisi si è concentrata in particolare anche sul fronte dell’intelligenza artificiale, con risultati tutt’altro che rassicuranti.
IA ancora marginale, ma già esposta
La quota di incidenti di sicurezza che coinvolgono l’IA è ancora minoritaria rispetto al totale, ma sta crescendo e viene considerata una minaccia emergente ad alto potenziale. Secondo IBM, il 13% delle 600 organizzazioni analizzate a livello globale ha segnalato una violazione legata a un modello o a un’applicazione IA tra marzo 2024 e febbraio 2025.
Ciò che preoccupa di più, però, è il quadro sistemico che emerge da queste violazioni, visto che il 97% delle aziende colpite non aveva implementato controlli di accesso adeguati per i sistemi IA. Di conseguenza, dati sensibili e modelli critici si sono trovati esposti ad accessi non autorizzati, manipolazioni o, peggio, compromissioni esterne. Tra le aziende che hanno subito un attacco legato all’IA, circa un terzo ha riportato interruzioni operative e violazioni di dati sensibili, il 23% ha subìto perdite economiche dirette, mentre il 17% ha registrato un danno d’immagine significativo.
Il fattore scatenante più comune nelle violazioni IA, secondo IBM, è rappresentato dalle compromissioni nella catena di fornitura software, come API vulnerabili, plug-in non controllati o applicazioni cloud compromesse. Il più delle volte, l’origine del problema risiede in un fornitore terzo, spesso attivo nel settore SaaS (Software as a Service).
Questo dato evidenzia la crescente interdipendenza delle infrastrutture IA aziendali da ecosistemi esterni, che non sempre adottano standard di sicurezza coerenti con quelli dell’organizzazione cliente. È un elemento particolarmente preoccupante in un contesto in cui la gestione dei rischi di terze parti resta una delle sfide più complesse per i CISO.
L’ombra della shadow AI
Un altro fenomeno emerso dal rapporto è quello della cosiddetta shadow AI, ovvero l’utilizzo di strumenti o modelli IA da parte di dipendenti o team aziendali senza approvazione né supervisione da parte dell’IT o della divisione sicurezza.
Queste implementazioni informali, spesso legate a strumenti online accessibili o plugin integrabili nei flussi di lavoro quotidiani, rappresentano una porta d’ingresso privilegiata per gli attaccanti. Essendo invisibili all’interno della mappa dei sistemi ufficiali, sfuggono infatti ai controlli di sicurezza e ai monitoraggi, aumentando in modo significativo il rischio complessivo.
Secondo i dati del report, l’87% delle organizzazioni non dispone di una governance specifica per l’IA e due aziende su tre tra quelle colpite non effettuavano audit regolari dei modelli IA, mentre più del 75% non conduceva test avversariali, ovvero prove simulate per individuare punti deboli nei modelli.
Tra hype e rischi concreti
Questo non è comunque il primo campanello d’allarme. Già nel 2024, molte aziende avevano infatti sospeso l’adozione di strumenti IA generativi come Microsoft Copilot, a causa di preoccupazioni sulla privacy interna e sulla possibilità che l’assistente IA accedesse a dati sensibili non autorizzati.
Parallelamente, secondo una stima di Gartner dello scorso anno, almeno il 30% dei progetti IA generativi aziendali potrebbe essere abbandonato entro la fine del 2025, a causa di dati di bassa qualità, costi fuori controllo, scarsa gestione del rischio o assenza di un chiaro ritorno sull’investimento.
In questo scenario, dal report di IBM emerge come molte organizzazioni stiano sacrificando la sicurezza sull’altare della velocità di implementazione. La pressione a innovare e a “non restare indietro” nel boom dell’IA rischia inoltre di portare a conseguenze molto più gravi e durature.
“Il report evidenzia una mancanza di controlli d’accesso di base per i sistemi IA, con conseguente esposizione di dati sensibili e modelli vulnerabili a manipolazioni” ha commentato Suja Viswesan, VP of Security and Runtime Products di IBM. Viswesan ha anche sottolineato che l’IA deve essere trattata come un asset critico a livello di sicurezza: “Il costo dell’inazione non è solo economico, ma è anche la perdita di fiducia, trasparenza e controllo. I dati mostrano che esiste già un divario tra adozione dell’IA e supervisione e gli attori malevoli stanno iniziando a sfruttarlo.”
(Immagine in apertura: Shutterstock)