Il National Cyber Security Center (NCSC) del Regno Unito ha recentemente lanciato un avvertimento sulla minaccia rappresentata dall’intelligenza artificiale (IA) per la sicurezza interna. A questo è seguito a breve distanza un avvertimento simile da parte del direttore della sicurezza informatica dell’NSA Rob Joyce. È chiaro che diverse nazioni sono molto preoccupate per le sfide e le minacce poste dall’IA.

L’NCSC ha avvertito che le query vengono archiviate e quindi potrebbero diventare parte del modello linguistico di base (LLM) di chatbot IA come ChatGPT. Tali query potrebbero rivelare aree di interesse per l’utente e, per estensione, per l’organizzazione a cui appartiene. Joyce ha affermato che ChatGPT e i suoi simili renderanno i criminali informatici più bravi nel loro lavoro, soprattutto grazie alla capacità di un chatbot di migliorare la verbosità del phishing, facendola sembrare più autentica e credibile anche nei confronto di bersagli sofisticati.

Fuga di dati attraverso le query

Come se non bastasse, Samsung ha rivelato di aver ammonito i suoi dipendenti a usare con cautela la funzionalità ChatGPT. Un dipendente desiderava ottimizzare il design di un prodotto riservato e sensibile e lasciare che il motore di intelligenza artificiale facesse il suo dovere: il risultato ha funzionato, ma ha anche lasciato dietro di sé un segreto commerciale e alla fine ha convinto Samsung a iniziare a sviluppare il proprio software di ML solo per uso interno.

Parlando dell’incidente di Samsung, il CISO di CODE42 Jadee Hanson ha osservato che, nonostante i promettenti progressi, l’esplosione del ChatGPT ha suscitato molte nuove preoccupazioni riguardo ai potenziali rischi. “Per le organizzazioni, il rischio si intensifica quando qualsiasi dipendente inserisce i dati in ChatGPT”, spiega Hanson. “Gli strumenti come ChatGPT possono essere incredibilmente utili e potenti, ma i dipendenti devono capire quali dati è opportuno inserire e quali no, mentre i team di sicurezza devono avere la giusta visibilità su ciò che l’organizzazione invia a ChatGPT. Tutti i nuovi e potenti progressi tecnologici comportano dei rischi che dobbiamo comprendere per proteggere le nostre organizzazioni”.

In poche parole, una volta premuto “invio”, le informazioni sono sparite e non sono più sotto il vostro controllo. Se le informazioni erano considerate un segreto commerciale, questa azione potrebbe essere sufficiente per dichiararle non più segrete. Samsung ha osservato che tali dati sono impossibili da recuperare in quanto ora sono archiviati sui server di OpenAI”. Nel settore dei semiconduttori, in cui la concorrenza è molto agguerrita, qualsiasi tipo di fuga di dati potrebbe rappresentare un disastro per l’azienda in questione. Non è difficile capire come tali richieste provenienti dall’interno di un governo, soprattutto se si tratta di informazioni riservate, potrebbero mettere a rischio la sicurezza nazionale.

L’intelligenza artificiale cambia tutto

All’inizio del 2023, il Dr. Jason Matheny, presidente e amministratore delegato di RAND Corporation, ha delineato le quattro aree principali che la sua organizzazione considera problematiche per la sicurezza nazionale in una testimonianza davanti alla Commissione per la sicurezza interna e gli affari governativi.

  • Le tecnologie sono guidate da entità commerciali che spesso non rientrano nel quadro della sicurezza nazionale
  • Le tecnologie avanzano rapidamente, in genere superando le politiche e le riforme organizzative del governo
  • Le valutazioni delle tecnologie richiedono competenze che si concentrano nel settore privato e che raramente sono state utilizzate per la sicurezza nazionale
  • Le tecnologie non hanno firme di intelligence convenzionali che distinguano l’uso benevolo da quello malevolo, che distinguano l’uso intenzionale da quello accidentale o che permettano un’attribuzione certa

Non è insomma un’iperbole o un’esagerazione affermare che l’IA cambierà tutto.

microsoft intelligenza artificiale

La crescente paura di AutoGPT

Rob Reiter, CTO di Sentra (che in precedenza ha prestato servizio presso l’Unità 8200, all’interno della Forza di Difesa Nazionale israeliana), ha dichiarato che il suo timore principale sarà l’avvento di AutoGPT o AgentGPT, entità di intelligenza artificiale che potrebbero essere distribuite con il motore GPT operando come un moltiplicatore di forze e migliorando l’efficienza dell’attacco non di cento volte ma di molte migliaia di volte. Con AutoGPT, l’attaccante ha inoltre a disposizione uno strumento che può essere sia persistente che scalabile.

Reiter non è solo. Patrick Harr, CEO di SlashNext, ha affermato che gli hacker utilizzano ChatGPT per sferrare un volume maggiore di attacchi unici e mirati in modo più rapido, creando una maggiore probabilità di successo della compromissione. “Ci sono due aree in cui i chatbot hanno successo oggi: il malware e le minacce di business email compromise (BEC)”, afferma Harr. “I cyberattacchi sono più pericolosi quando vengono portati con velocità e frequenza a obiettivi specifici di un’organizzazione”.

Creare infinite variazioni di codice

“ChatGPT consente inoltre ai criminali informatici di creare infinite variazioni di codice per rimanere un passo avanti rispetto ai motori di rilevamento del malware”, afferma Harr. “Gli attacchi BEC sono tentativi mirati di ingegneria sociale per indurre la vittima a fornire informazioni finanziarie o dati preziosi. Per avere successo, questi attacchi richiedono messaggi personalizzati. ChatGPT è ora in grado di creare in massa email personali e ben scritte con infinite varianti. La velocità e la frequenza di questi attacchi aumenteranno e produrranno un tasso di successo più elevato di compromissioni e violazioni degli utenti; non a caso si è già registrato un aumento significativo del numero di violazioni segnalate nel primo trimestre del 2023″.

Inoltre, ha osservato Reiter, la capacità dei chatbot IA di imitare gli esseri umani è molto reale. C’è da aspettarsi che entità come la Internet Research Agency, da tempo associata alle misure attive russe, in particolare alla disinformazione, facciano gli straordinari per evolvere le capacità di catturare il tono, il tenore e la sintassi di un individuo specifico. Il pubblico target può sapere che ciò è possibile, ma quando si trova di fronte a contenuti di un individuo reale e a contenuti imitati, a chi crederà? È in gioco la fiducia. Harr ha sottolineato che per mitigare il problema sarà necessaria una sicurezza alimentata da un machine learning simile: “Bisogna combattere l’IA con l’IA”.

Il mondo dovrebbe mettere in pausa lo sviluppo di strumenti di IA?

Gli avvertimenti delle agenzie di sicurezza di tutto il mondo sembrerebbero allinearsi con una lettera aperta di alcune settimane fa (firmata tra gli altri da Elon Musk e Steve Wozniak) che chiede una pausa nello sviluppo di strumenti di IA generativa. Ma sembra che sia ormai troppo tardi, come dimostra una recente audizione del Comitato delle Forze Armate del Senato degli Stati Uniti sullo stato delle applicazioni dell’intelligenza artificiale e del machine learning per migliorare le operazioni del Dipartimento della Difesa, durante la quale è emerso che una pausa da parte degli Stati Uniti sarebbe deleteria per la sicurezza nazionale del Paese.

I testimoni (Matheny di RAND, Shyam Sankar, CTO di Palantir, e Josh Lospinoso, cofondatore e CEO di Shift5) hanno concordato sul fatto che gli Stati Uniti godono attualmente di un vantaggio e che una pausa del genere darebbe alle nazioni avversarie l’opportunità di recuperare il ritardo e creare modelli di intelligenza artificiale contro i quali gli Stati Uniti difficilmente potrebbero difendersi. Detto questo, gli intervenuti hanno chiesto universalmente di tenere sotto controllo l’IA e hanno raggiunto un accordo bipartisan all’interno della sottocommissione.

La sottocommissione ha chiesto ai tre di collaborare con altre persone di loro scelta e di tornare entro 30-60 giorni con delle raccomandazioni su come il governo dovrebbe considerare la regolamentazione dell’IA nel contesto della protezione della sicurezza nazionale. Dalle conversazioni tenute durante l’udienza del 19 aprile si intuisce che le tecnologie IA saranno designate come tecnologie a duplice uso e rientreranno nell’ambito dell’ITAR (International Traffic in Arms Regulations), che non vieta la collaborazione o la condivisione internazionale, ma richiede che il governo abbia voce in capitolo.