L’IA generativa sta rivoluzionando non solo il modo in cui si producono contenuti digitali, ma anche il panorama delle minacce informatiche. A lanciare l’allarme è Trend Micro con la nuova ricerca Deepfake it ’til You Make It: A Comprehensive View of the New AI Criminal Toolset, che fotografa una realtà inquietante. I deepfake e gli strumenti basati su IA generativa sono ormai una componente chiave dell’arsenale dei cybercriminali e non si tratta più di un rischio ipotetico o di tecnologie futuristiche, ma di minacce concrete, sofisticate e alla portata di chiunque.

Nati come curiosità tecnologica, i deepfake (contenuti multimediali manipolati con algoritmi di intelligenza artificiale) hanno rapidamente superato la fase dell’hype per diventare una tattica standard degli attacchi informatici utilizzata per compromettere aziende, frodare sistemi bancari e aggirare le verifiche d’identità. Secondo Trend Micro, l’utilizzo di video e audio sintetici ha raggiunto un tale grado di realismo da minare alle fondamenta la fiducia digitale, spingendo le aziende verso un terreno nuovo e insidioso dove ciò che si vede o si sente non è più garanzia di autenticità.

“Abbiamo documentato numerosi casi di manager impersonati, processi di selezione compromessi e sistemi finanziari elusi con sorprendente facilità” dichiara Salvatore Marcis, Country Manager di Trend Micro Italia. “Questa ricerca è anche un appello alle imprese: il tempo per prepararsi alla nuova era dei deepfake è ora. Chi non lo fa rischia di rimanere irrimediabilmente indietro.”

Uno dei dati più allarmanti riguarda l’accessibilità di questi strumenti. Non servono infatti più conoscenze avanzate di programmazione o machine learning per creare un deepfake credibile, ma esistono piattaforme pronte all’uso, con interfacce intuitive che permettono a chiunque (anche senza competenze tecniche) di generare video, immagini o file audio capaci di ingannare persone e sistemi automatizzati. Questi strumenti sono economici, rapidi e straordinariamente efficaci, rendendo ogni fase dell’attacco più semplice e scalabile.

deepfake

La ricerca individua tre scenari principali dove l’uso dei deepfake si sta espandendo rapidamente:

  • La truffa del CEO, in cui gli attaccanti imitano con audio o video sintetici dirigenti aziendali per ingannare dipendenti e ottenere trasferimenti di denaro o accessi privilegiati. L’aggiunta di contenuti audiovisivi in tempo reale rende questi attacchi quasi indistinguibili dalla realtà.
  • I colloqui di lavoro manipolati, dove falsi candidati, grazie a deepfake e risposte generate da IA, riescono a superare i processi di selezione per ottenere accessi diretti alle reti aziendali
  • Il settore finanziario, dove le verifiche KYC (Know Your Customer) sono sempre più spesso aggirate da identità sintetiche, utilizzate per il riciclaggio di denaro e altre attività illegali

Nell’underground cybercriminale si sta inoltre consolidando un ecosistema ben strutturato, con toolkit, tutorial, video dimostrativi e marketplace per lo scambio di contenuti sintetici. Manuali dettagliati insegnano come bypassare i processi di onboarding aziendale, mentre applicazioni “plug-and-play” consentono la modifica e il riutilizzo di volti e voci in modo immediato. Il risultato è che la barriera tecnica all’ingresso si è abbassata drasticamente, permettendo a una platea molto più ampia di malintenzionati di operare con efficacia.

In questo scenario, le aziende si trovano di fronte a una sfida inedita: proteggere non solo i sistemi informatici, ma anche l’integrità visiva e vocale dei propri rappresentanti. Trend Micro sottolinea che per contrastare l’ascesa delle frodi alimentate da deepfake, è fondamentale adottare una strategia di difesa proattiva, che comprenda:

  • Percorsi di formazione interna per aumentare la consapevolezza del personale sui rischi di social engineering
  • Revisione dei sistemi di autenticazione, con l’integrazione di strumenti biometrici avanzati e metodi di verifica multifattoriale
  • Soluzioni tecnologiche per il rilevamento dei media sintetici, basate su tecniche forensi e intelligenza artificiale inversa