Il threat report di Google mostra come i criminali stanno usando gli LLM per attacchi automatizzati

Negli ultimi dodici mesi, si è verificato un cambiamento silenzioso ma cruciale nel panorama della sicurezza informatica. Il Google Threat Intelligence Group (GTIG) ha rilevato che l’IA non è più soltanto uno strumento di produttività o automazione per gli hacker, ma è diventata parte integrante delle loro operazioni attive. I criminali informatici, e in misura crescente anche attori sponsorizzati da governi, stanno infatti sperimentando e implementando malware capaci di apprendere, adattarsi e mutare in tempo reale, sfruttando le potenzialità degli LLM
Questa nuova fase operativa, descritta nel report aggiornato del GTIG, rappresenta un punto di svolta. Si passa da un uso “passivo” dell’IA (come generare phishing o testi ingannevoli) a un impiego diretto all’interno del codice malevolo. È l’alba del malware dinamico, che può modificare il proprio comportamento durante l’esecuzione, generare script su richiesta e riscrivere parti di sé per sfuggire alle difese automatiche.
Malware adattivo e l’emergere del “Just-in-Time AI”
Tra i casi più emblematici individuati da Google figurano due nuove famiglie di malware, denominate PROMPTFLUX e PROMPTSTEAL. Entrambe integrano componenti IA capaci di creare funzioni malevole in tempo reale, piuttosto che incorporarle nel codice statico. In pratica, il malware non “nasce” con tutte le sue armi, ma le costruisce al momento opportuno, in base al contesto in cui opera.
Questa strategia, definita “Just-in-Time AI”, apre scenari preoccupanti. Permette infatti di generare codice dannoso al volo, di offuscarlo per eludere i sistemi di rilevamento e di adattarsi alle contromisure messe in atto dal software di sicurezza. È un approccio più flessibile, resiliente e soprattutto più difficile da individuare, perché ogni iterazione del malware può essere diversa dalla precedente.
L’inganno come chiave d’accesso: social engineering e prompt manipolativi
Parallelamente, i ricercatori di Google hanno notato un aumento significativo delle tecniche di ingegneria sociale applicate all’IA. Gli attori malevoli hanno infatti imparato a “ingannare” i modelli linguistici stessi, presentandosi come studenti, ricercatori o analisti di sicurezza per convincere sistemi come Gemini a fornire risposte o codice che normalmente sarebbero bloccati dai filtri di sicurezza.
Questo tipo di manipolazione (una forma evoluta di prompt injection) rappresenta una vulnerabilità non tecnica ma psicologica dell’intelligenza artificiale, che reagisce in base al contesto del prompt ricevuto. Se l’IA crede di interagire con un utente legittimo, può sbloccare funzioni altrimenti inaccessibili, fornendo agli aggressori strumenti per creare exploit o software dannoso senza ricorrere a tecniche di programmazione tradizionali.
Un mercato sotterraneo sempre più maturo
Il 2025 segna anche la maturazione del mercato nero delle tecnologie IA per il cybercrime. Il GTIG ha individuato una proliferazione di strumenti multifunzionali progettati per semplificare attività come il phishing automatizzato, la generazione di malware e l’analisi di vulnerabilità.
Inoltre, questo ecosistema sotterraneo abbassa la soglia di ingresso per gli attaccanti meno esperti, democratizzando l’accesso a tecniche un tempo riservate agli hacker più qualificati. È un’evoluzione simile a quella avvenuta anni fa con i kit di exploit preconfezionati, per la quale l’intelligenza artificiale diventa la piattaforma su cui costruire nuove minacce modulari, personalizzabili e scalabili.
Di fronte a questa evoluzione, Google ha rafforzato la propria strategia di difesa integrata. Il gruppo GTIG ha già disattivato progetti e account associati ad attività malevole, oltre a potenziare i sistemi di classificazione e rilevamento all’interno dei propri modelli generativi come Gemini. L’obiettivo non è solo contrastare le minacce in atto, ma anche rendere i modelli stessi meno suscettibili agli abusi futuri.
Il principio di fondo è che per proteggere l’IA, serve un’IA capace di riconoscere e prevenire i propri abusi. È una sorta di approccio di autoimmunità digitale, dove la tecnologia si adatta per rispondere a minacce generate dalla stessa tecnologia.
Attori statali e uso strategico dell’AI
Non sono però solo i cybercriminali indipendenti a muoversi in questa direzione. Secondo il GTIG, gruppi affiliati a stati come Corea del Nord, Iran e Repubblica Popolare Cinese stanno integrando strumenti IA nei vari stadi delle loro operazioni, dalla raccolta di informazioni (reconnaissance) fino alla creazione di campagne di phishing mirato e allo sviluppo di infrastrutture di comando e controllo e all’esfiltrazione dei dati. In questo contesto, l’IA diventa un moltiplicatore di potenza, consentendo di scalare operazioni complesse, automatizzando la personalizzazione degli attacchi e riducendo la necessità di risorse umane esperte.
(Immagine in apertura: Shutterstock)

