Darktrace ha annunciato un nuovo aggiornamento del suo prodotto di sicurezza Darktrace/Email con funzionalità migliorate che difendono le organizzazioni dall’evoluzione delle minacce informatiche, tra cui la compromissione generativa delle email aziendali (BEC) e nuovi attacchi di social engineering. Tra le nuove funzionalità vi sono un ciclo di feedback tra IA e dipendenti, la protezione contro l’acquisizione di account, le informazioni provenienti da endpoint, rete e cloud e i rilevamenti comportamentali di e-mail errate. L’aggiornamento arriva in seguito alla crescente preoccupazione per la capacità dell’IA generativa (come ChatGPT e altri modelli linguistici di grandi dimensioni) di potenziare gli attacchi di phishing via e-mail e di offrire agli attori delle minacce la possibilità di creare campagne più sofisticate e mirate su larga scala.

Le nuove funzionalità di Darktrace/Email consentono di rilevare gli attacchi non appena vengono lanciati. Secondo Darktrace, infatti, il sistema non è addestrato a riconoscere l’aspetto storico del “pericolo” sulla base di attacchi passati, ma apprende i normali modelli di vita di ogni singola organizzazione. Questa caratteristica è fondamentale per affrontare i nuovi attacchi via e-mail e le comunicazioni malevole linguisticamente complesse potenziate da ChatGPT e da altri strumenti LLM. Inoltre, Darktrace/Email è in grado di rilevare i nuovi attacchi via e-mail con 13 giorni di anticipo (in media) rispetto agli strumenti di sicurezza e-mail che si basano sulla conoscenza delle minacce passate.

Con questo aggiornamento, Darktrace Cyber AI Analyst combina l’attività anomala delle email con altre fonti di dati, tra cui endpoint, rete, cloud, app e OT, per automatizzare le indagini e la segnalazione degli incidenti. Grazie a un contesto più ampio per le sue scoperte, l’IA di Darktrace è ora in grado di prendere decisioni più informate, con algoritmi che forniscono un quadro dettagliato della “normalità” basato su molteplici prospettive per produrre conclusioni altamente affidabili che sono contestualizzate e attuabili.

Le nuove funzionalità di Darktrace/Email includono:

  • Acquisizione di account e protezione delle e-mail in un unico prodotto
  • Rilevamento comportamentale delle e-mail errate, per evitare che la proprietà intellettuale o le informazioni riservate vengano inviate al destinatario sbagliato
  • Ciclo dipendente-IA che sfrutta le intuizioni dei singoli dipendenti per informare l’intelligenza artificiale di Darktrace e fornire approfondimenti in tempo reale e nel contesto, nonché consapevolezza della sicurezza
  • Gestione intelligente della posta per migliorare la produttività contro la posta indesiderata, lo spam e le newsletter che ingombrano le caselle di posta.
  • Flussi di lavoro ottimizzati e integrazioni per i team di sicurezza, compresa l’applicazione mobile Darktrace
  • Indagini automatizzate sugli incidenti di posta elettronica con altre aree di copertura grazie al Cyber AI Analyst

email-problemi-libero

Preoccupazione diffusa per gli attacchi e-mail e le attività dannose potenziate da ChatGPT

Dal lancio di ChatGPT da parte di OpenAI lo scorso anno, si sono diffusi dibattiti e preoccupazioni sulla capacità del chatbot di rendere gli attacchi di social engineering/phishing più sofisticati, più facili da portare a termine e con maggiori probabilità di successo. I dati di Darktrace hanno rivelato un aumento del 135% degli attacchi di social engineering su migliaia di clienti attivi nel settore delle e-mail da gennaio a febbraio 2023, proprio in corrispondenza con l’adozione di massa di ChatGPT.

Secondo Darktrace, questi attacchi hanno comportato l’uso di sofisticate tecniche linguistiche, tra cui l’aumento del volume del testo, della punteggiatura e della lunghezza delle frasi. Inoltre, l’82% dei 6.711 dipendenti globali intervistati da Darktrace ha dichiarato di temere che gli aggressori possano utilizzare l’IA generativa per creare e-mail truffaldine indistinguibili dalle comunicazioni autentiche.

La scorsa settimana, l’Europol ha inoltre avvertito che la capacità di ChatGPT di redigere testi altamente realistici lo rende uno strumento utile per il phishing, mentre la capacità dei LLM di riprodurre modelli linguistici può essere utilizzata per impersonare lo stile di linguaggio di individui o gruppi specifici. “Questa capacità può essere sfruttata su larga scala per ingannare le potenziali vittime e indurle a riporre la loro fiducia nelle mani di attori criminali”, ha dichiarato l’Europol.

A febbraio infine, uno studio condotto da BlackBerry su 500 responsabili IT del Regno Unito, ha rivelato che il 72% dei rispondenti è preoccupato dal potenziale utilizzo di ChatGPT per scopi malevoli e la maggior parte ritiene che Stati stranieri stiano già utilizzando il chatbot contro altre nazioni. Inoltre, il 48% degli intervistati ha previsto che un cyberattacco di successo sarà attribuito a ChatGPT entro i prossimi 12 mesi e l’88% ha affermato che i governi hanno la responsabilità di regolamentare tecnologie avanzate come ChatGPT.