Metà dello spam e il 14% degli attacchi BEC è scritto dalle IA

Grazie ai nuovi strumenti basati su IA generativa, è possibile produrre rapidamente messaggi ingannevoli, grammaticalmente corretti, ben strutturati e altamente personalizzati, che aumentano le probabilità di successo sia degli attacchi di massa, come lo spam, sia di quelli più mirati, come i Business Email Compromise (BEC). Ma quanto è diffuso oggi l’utilizzo effettivo dell’IA generativa da parte dei cybercriminali? E in che modo la stanno impiegando?
Per rispondere a queste domande, un gruppo di ricercatori della Columbia University e dell’Università di Chicago ha collaborato con Barracuda, analizzando un ampio dataset di email malevole e non sollecitate raccolte nel periodo compreso tra febbraio 2022 e aprile 2025. Lo studio ha consentito di fare luce sull’evoluzione concreta dell’uso dell’AI nei flussi di attacco email.
Individuare l’uso dell’IA negli attacchi email
Stabilire se un’email malevola sia stata generata da un’intelligenza artificiale non è sempre un compito semplice. I cybercriminali possono mescolare testo prodotto dall’IA con contributi manuali o adottare strategie ibride che rendono difficile l’analisi. Per superare questa sfida, il team di ricerca ha addestrato specifici rilevatori in grado di riconoscere automaticamente le tracce linguistiche tipiche della scrittura generata da IA.
Il metodo si è basato su un presupposto fondamentale: i messaggi raccolti prima della diffusione pubblica di ChatGPT (novembre 2022) erano con altissima probabilità redatti da esseri umani, fornendo così un set di riferimento per identificare i falsi positivi e calibrare il sistema. Grazie a questo approccio, l’intero dataset 2022-2025 di Barracuda è stato processato, rivelando come la presenza di contenuti generati da IA sia progressivamente cresciuta, ma con dinamiche differenti a seconda della tipologia di attacco.
L’IA domina nello spam, ma cresce lentamente nei BEC
L’analisi ha mostrato che lo spam è il terreno dove l’intelligenza artificiale generativa sta trovando l’applicazione più diffusa. Ad aprile 2025, infatti, oltre il 51% delle email di spam analizzate risultava generata da IA, superando nettamente l’incidenza in qualsiasi altro tipo di attacco. In altre parole, oggi più della metà dei messaggi presenti nelle caselle di posta indesiderata degli utenti è probabilmente prodotta da LLM.
Più contenuta invece l’adozione dell’IA nei Business Email Compromise, una tipologia di attacco molto più mirata e strategica che richiede personalizzazione e precisione. I BEC prendono di mira soggetti specifici all’interno di un’organizzazione, come ad esempio il CFO, per indurli a compiere trasferimenti finanziari o altre operazioni sensibili. In questi casi, la ricerca indica che solo il 14% dei messaggi analizzati a fine aprile 2025 era generato da IA. Ciò suggerisce che, per ora, i criminali informatici utilizzano l’intelligenza artificiale soprattutto per aumentare il volume e la varietà degli attacchi meno sofisticati.
Analizzando il contenuto dei messaggi, il team ha rilevato che le email generate da IA presentano alcune caratteristiche linguistiche ricorrenti: maggiore formalità, assenza quasi totale di errori grammaticali e una padronanza linguistica complessivamente superiore rispetto ai testi scritti manualmente. Questi aspetti aumentano la credibilità percepita del messaggio e riducono la probabilità che i filtri antispam o gli utenti umani rilevino anomalie.
Questa precisione stilistica è particolarmente vantaggiosa quando gli attaccanti non condividono la stessa lingua madre delle loro vittime. Non sorprende, dunque, che la maggior parte dei destinatari nel dataset Barracuda risiedesse in Paesi anglofoni o dove l’inglese è ampiamente utilizzato. In molti casi, inoltre, i criminali utilizzano l’IA non solo per generare nuovi messaggi, ma anche per testare variazioni di formulazione (una sorta di A/B testing in chiave malevola), verificando quali varianti riescano a eludere meglio i filtri o a indurre più clic.

Esempi di email rilevate come generate da LLM. La prima è un’email di tipo BEC. La seconda e la terza sono email di spam e sembrano essere varianti riformulate, con le differenze evidenziate in rosso.
Interessante anche notare come l’elemento della “urgenza”, spesso utilizzato per indurre l’utente a reagire impulsivamente (ad esempio: “Trasferisci subito i fondi” o “Clicca immediatamente”), non mostri particolari differenze tra email generate da IA e quelle scritte manualmente. Ciò indica che, almeno per il momento, l’IA viene sfruttata per affinare il linguaggio e la presentazione, senza alterare significativamente le tecniche psicologiche di persuasione adottate nei testi.
Difendersi dagli attacchi email alimentati dall’IA
L’evoluzione dell’uso dell’IA generativa nel cybercrimine è tuttora in corso e pone sfide crescenti per chi si occupa di cybersecurity. I criminali imparano rapidamente ad affinare l’efficacia e l’elusività dei loro attacchi grazie a questi nuovi strumenti, ma allo stesso tempo anche le tecnologie di difesa si stanno evolvendo.
Per contrastare questo tipo di minaccia, è fondamentale dotarsi di soluzioni di sicurezza email avanzate, capaci di integrare rilevamento multilivello e motori AI/ML in grado di individuare segnali sottili nei testi e nelle strutture dei messaggi. Oltre alla componente tecnologica, però, resta essenziale anche l’investimento continuo nella formazione del personale. Programmi di security awareness aggiornati aiutano infatti i dipendenti a riconoscere i nuovi schemi di attacco e a reagire in modo appropriato, riducendo il rischio di compromissione.