Nel suo appuntamento periodico Security Barcamp, Trend Micro ha invitato il CISO di TIM Matteo Macina, quello di Pirelli Stefano Vercesi e Walter Riviera, AI Technical Lead Emea di Intel a confrontarsi sulle principali tendenze della cybersecurity identificate dai quindici Threat Research Center di Trend Micro e inserite nel rapporto “Critical Scalability: Trend Micro Security Predictions for 2024”.

Oltre all’inevitabile analisi dell’impatto della IA generativa come strumento per aumentare l’efficacia degli attaccanti, con particolare riferimento alla tecnica del phishing, il rapporto punta il riflettore sulla vulnerabilità dell’architettura a container e del modello DevOps Continuous Improvement/Continuous Delivery verso gli attacchi di tipo supply chain, sull’insorgenza di worm cloud-based che sfruttano configurazioni errate delle infrastrutture, sull’avvelenamento dei dati di training dei modelli IA (data poisoning) e su possibili attacchi alle infrastrutture Blockchain.

Gli scenari che si possono intravedere, quindi, includono la possibilità di effettuare dei rapimenti virtuali – in cui l’identità digitale di persone od organizzazioni viene compromessa e viene richiesto un riscatto per la restituzione del controllo – la compromissione dei modelli di intelligenza artificiale usati per contrastare le frodi finanziarie e la violazione di sistemi effettuata attraverso la compromissione delle librerie software utilizzate dalle applicazioni aziendali (Log4j è solo l’esempio più eclatante di questo tipo di attacchi).

La IA pone nuove sfide alla sicurezza

Dalle prime campagne di massa con messaggi mal tradotti e facilmente individuabili, il phishing si è evoluto e ora vengono effettuati attacchi mirati con informazioni rilevanti e credibili da parte della vittima, ma questo è un processo manuale che richiede all’attaccante molto tempo. I modelli linguistici, accompagnati magari da modelli GAN in grado di creare immagini e video deepfake, possono rendere scalabile a livello globale l’approccio personalizzato.

“Vediamo campagne globali dietro cui c’è un unico attore, ma che personalizzate in modo molto raffinato con dettagli specifici della persona attaccata e sfumature relative al paese. Sono attacchi spear phishing, ma condotti su scala globale – commenta Stefano Vercesi, CISO di Pirelli – e questo ci obbliga ad aumentare la capacità di raccogliere e interpretare segnali deboli a livello globale”.

CISO di TIM Matteo Macina, quello di Pirelli Stefano Vercesi e Walter Riviera, AI technical lead Emea di Intel

Da Sinistra, Matteo Macina  Head of Cyber Security di TIM , Walter Riviera, AI Technical Lead Emea di Intel e Stefano Vercesi, CISO di Pirelli.

Matteo Macina, CISO di TIM, sottolinea anche come la IA generativa stia aumentando il numero degli attaccanti, perché offre ai criminali meno tecnicamente preparati di effettuare attacchi più grandi rispetto alle effettive capacità.

Una possibile soluzione al problema dei deepfake, che possono permettere di impersonare un dirigente e far compiere operazioni non autorizzate ai dipendenti, è la certificazione della veridicità di contenuti audio e video. Walter Riviera segnala che Intel ha aderito al C2PA, Consorzio per i Contenuti Protetti e Autenticati, un’iniziativa nata da Adobe che mira a certificare che un contenuto sia genuino e non generato dalla IA. “In futuro le fotocamere potrebbero avere una tecnologia di firma digitale che certifichi che l’immagine è originale e non sintetica”, afferma.

In futuro le fotocamere potrebbero avere una tecnologia di firma digitale che certifichi che l’immagine è originale e non sintetica

Un altro elemento di rischio indotto dalla IA è la diffusione di informazioni riservate, “dallo sviluppatore che usa strumenti IA per il debugging di codice proprietario, all’addetto marketing che genera un PowerPoint inserendo informazioni riservate nel prompt”, avverte Vercesi sottolineando che in Pirelli l’utilizzo della IA è stato regolamentato in modo da poterne sfruttare le potenzialità, ma in modo sicuro e conforme alle policy.

Riguardo alla possibilità del data poisoning, cioè l’alterazione dei dati di addestramento per modificare le risposte dei modelli IA, Macina evidenzia la necessità di creare strumenti e pratiche per fare l’assessment di modelli di intelligenza artificiale, in modo simile a quello con cui gli ethical hacker individuano le vulnerabilità nelle applicazioni, anche attraverso un continuo monitoraggio delle modifiche fatte ai dataset.

Il tema dell’affidabilità dei dati di training, ma anche della loro riservatezza, è stato toccato anche da Riviera parlando del federated learning, una tecnica che permette per esempio a istituti di ricerca clinica di addestrare modelli IA per la diagnostica senza dover condividere dati riservati con gli altri partecipanti. “In questo scenario, le tecnologie di data integrity e confidential computing sono un must”, ha commentato.

La cloud misconfiguration e l’automazione delle botnet

“Il cloud è stato spesso venduto come secure by design, ma le cose non stanno così. Le molte possibilità di personalizzazione e la complessità indotta dagli ambienti multi-cloud, espongono l’utente al rischio di commettere errori di configurazione, introducendo vulnerabilità”, afferma Macina. “Alcuni di questi errori sono molto comuni anche tra aziende diverse. Questo gli attaccanti lo sanno, e stanno quindi sviluppando exploit industrializzati”.

Il cloud è stato spesso venduto come secure by design, ma le cose non stanno così

Secondo Trend Micro, questo sta portando alla nascita di botnet che non sono più basate su pc o dispositivi IoT, ma su ben più potenti infrastrutture cloud. “Già oggi, il 65 percento dei malware è in cloud, su condivisioni OneDrive o istanze di storage, e segregare le zone del cloud permette di ridurre la loro distribuzione” – commenta Alessio Aniello, Technical Director di Trend Micro – sottolineando che in mancanza di ciò, il malware può sfruttare tutta la potenza di calcolo e gli automatismi del cloud a proprio vantaggio.

“Il cloud è caratterizzato da agilità e velocità, cose che non sempre favoriscono un’adozione sicura. L’analisi della postura di security arriva spesso in ritardo, in un secondo momento – aggiunge Vercesi. In ambito IaaS la strategia è stata presto cambiata, introducendo assesment e misure di protezione, anche perché l’approccio è più familiare a chi si occupa di infrastruttura, ma comincia a nascere la consapevolezza di un cambio di approccio anche per il mondo software-as-a-service”.

Container e attacchi supply-chain

“Oggi tutte le aziende sviluppano i proprio software in ambienti containerizzati, e questo estende i punti di attacco. Inserirsi nella supply chain dello sviluppo di un software permette di modificare librerie o runtime usati per lo sviluppo, che sono spesso diffusi da servizi SaaS, come Github. Immaginate di poter modificare quelle librerie inserendo codice malevolo… Ebbene, circa 350 delle aziende Fortune 500 non adottano un sistema di Container Workload Platform Protection che possa garantire l’integrità delle librerie utilizzate”, avvisa Aniello.

Ribadendo la necessità di estendere i controlli normalmente fatti sui fornitori anche a tutti i componenti software utilizzati, in particolare le librerie open, Vercesi evidenzia come questo tema si affrontato al momento in modo estremamente inefficiente: “ogni azienda fa valutazioni separate per ciascun fornitore. Ciascun fornitore deve sopportare l’onere dell’audit da parte di ciascuno dei suoi clienti”, e propone l’adozione di un sistema standard di certificazione simile a quello adottato dall’industria automobilistica tedesca, dove i fornitori effettuano una singola certificazione che è riconosciuta da tutti i carmaker.