La maggior parte dei responsabili IT del Regno Unito ritiene che alcuni stati stranieri stiano già utilizzando il chatbot ChatGPT per scopi malevoli contro altre nazioni. Questo è quanto emerge da un nuovo studio di BlackBerry che ha intervistato 500 responsabili IT del Regno Unito rivelando che, mentre il 60% degli intervistati ritiene che ChatGPT sia generalmente utilizzato per scopi “buoni”, il 72% è preoccupato dal suo potenziale utilizzo per scopi malevoli in materia di sicurezza informatica. Infatti, quasi la metà (48%) ha previsto che un attacco informatico di successo sarà attribuito a questa tecnologia entro i prossimi 12 mesi. I risultati fanno seguito a una recente ricerca che ha dimostrato come gli aggressori possano utilizzare ChatGPT per migliorare in modo significativo le truffe di phishing e business email compromise (BEC).

ChatGPT, il chatbot gratuito di OpenAI basato su GPT-3.5, è stato rilasciato il 30 novembre 2022 e ha raggiunto un milione di utenti in cinque giorni. È in grado di scrivere, saggi, codice ed e-mail di phishing se l’utente sa come porre le giuste domande. Lo studio di Blackberry ha rilevato che la capacità degli aggressori di utilizzare queste funzionalità per creare email di phishing più credibili e legittime è la principale preoccupazione del 57% dei responsabili IT del Regno Unito intervistati. Seguono l’aumento della sofisticazione degli attacchi (51%) e la capacità di accelerare nuovi attacchi di social engineering (49%).

Quasi la metà dei direttori IT del Regno Unito è preoccupata dalla possibilità che la ChatGPT venga utilizzata per diffondere disinformazione (49%) e dalla sua capacità di consentire agli hacker meno esperti di migliorare le proprie conoscenze tecniche (47%). Inoltre, l’88% degli intervistati ha affermato che i governi hanno la responsabilità di regolamentare le tecnologie avanzate come ChatGPT.

chatgpt

“ChatGPT probabilmente aumenterà la sua influenza nel settore informatico nel corso del tempo” ha commentato Shishir Singh, CTO cybersecurity di BlackBerry. “Abbiamo assistito a molti allarmismi, ma resta il fatto che i vantaggi che si possono trarre da questo tipo di tecnologia avanzata sono molti e stiamo solo iniziando a scalfire la superficie, ma non possiamo nemmeno ignorare le conseguenze”.

A gennaio, i ricercatori dell’azienda di sicurezza WithSecure hanno dimostrato come il modello di generazione del linguaggio naturale GPT-3 possa essere utilizzato per rendere gli attacchi di ingegneria sociale, come il phishing o le truffe di business email compromise (BEC), più difficili da individuare e più facili da realizzare. Lo studio ha rivelato che gli aggressori non solo possono generare variazioni uniche della stessa esca di phishing con un testo scritto grammaticalmente corretto e simile a quello umano, ma possono anche costruire intere catene di e-mail per rendere le loro convincenti e possono persino generare messaggi utilizzando lo stile di scrittura di persone reali sulla base di campioni forniti delle loro comunicazioni.

“La generazione di testi versatili in linguaggio naturale a partire da una piccola quantità di input interesserà inevitabilmente i criminali, soprattutto quelli informatici, se non lo ha già fatto”, affermano i ricercatori di WithSecure nel loro articolo. “Allo stesso modo, chiunque utilizzi il web per diffondere truffe, fake news o disinformazione in generale potrebbe essere interessato a uno strumento che crei testi credibili, magari anche convincenti, a velocità sovrumane”.