Anthropic rileva il primo attacco cyber completamente automatizzato dalla IA

L’ultimo rapporto di sicurezza pubblicato da Anthropic ha sollevato un campanello d’allarme che molti CISO e analisti di sicurezza si aspettavano da tempo, ovvero l’avvento di attacchi informatici condotti interamente da IA generative senza l’intervento diretto di hacker umani. Una trasformazione che potrebbe cambiare in profondità la natura della cybersicurezza e mettere a rischio sistemi critici in modi finora inediti.
La differenza rispetto agli scenari già noti è sostanziale. Se finora gli strumenti di intelligenza artificiale hanno funzionato come un supporto per i criminali, oggi le piattaforme di nuova generazione sembrano in grado di sostituirli del tutto, automatizzando ogni fase di un’operazione complessa, che va dalla raccolta di credenziali fino all’esfiltrazione dei dati. Per la prima volta, quindi, ci troviamo di fronte a una minaccia che non ha bisogno di un gruppo organizzato di esperti per essere portata avanti, ma che può essere gestita da singoli attori con risorse minime.
Rob Lee, chief of research al SANS Institute, ha sottolineato come questo scenario apra la strada a una crescita esponenziale degli attacchi ransomware. Non essendo vincolati da logiche politiche o dalla paura di attribuzioni ufficiali, i nuovi “imprenditori del crimine” possono colpire in maniera scalabile e ripetuta, aumentando i danni a livelli che il settore non ha mai visto. In questo senso, la figura del “solopreneur” criminale, capace di orchestrare attacchi su larga scala grazie a piattaforme come Claude Code di Anthropic, rappresenta un punto di svolta.
Un aspetto interessante evidenziato dall’ex procuratore federale Brian Levine riguarda la finestra temporale, forse breve, in cui questi sistemi non sono ancora perfettamente capaci di nascondere le tracce digitali. Questo potrebbe dare alle forze dell’ordine un’occasione per intercettare i primi malintenzionati che si affidano completamente all’IA, senza disporre delle competenze per coprire i propri movimenti. Tuttavia, si tratta di un’opportunità destinata probabilmente a chiudersi man mano che i modelli diventano più sofisticati.
Il rapporto di Anthropic entra nel dettaglio di un caso concreto. Un cybercriminale avrebbe utilizzato Claude Code per condurre un’operazione di estorsione su scala internazionale, colpendo almeno 17 organizzazioni in settori delicati come sanità, pubblica amministrazione ed emergenza. In questo contesto, l’IA ha svolto un ruolo attivo in tutte le fasi dell’attacco, dal reconnaissance alla penetrazione delle reti fino al furto di dati. Gli esperti hanno definito questo approccio “vibe hacking”, una metodologia che integra l’intelligenza artificiale come consulente tecnico e allo stesso tempo come operatore attivo.
Anthropic non è comunque sola in queste scoperte. Anche ESET ha infatti segnalato recentemente sviluppi simili in analisi su nuove varianti di ransomware, confermando che non si tratta più solo di un caso isolato, ma di un trend in rapida evoluzione.
Phil Brunkard, executive counselor presso Info-Tech Research Group UK, ha evidenziato un altro punto critico, sottolineando che ciò che non vediamo potrebbe essere ancora più pericoloso. Se Anthropic e OpenAI hanno reso pubblici i casi di uso malevolo delle loro piattaforme, altri attori del settore potrebbero non avere lo stesso livello di trasparenza, o peggio, potrebbero non disporre ancora degli strumenti per monitorare e prevenire efficacemente abusi. Viene quindi da chiedersi quanto stiamo realmente osservando e quanto invece ci sfugge.
Per i responsabili della sicurezza aziendale, il problema è già urgente. Will Townsend, analista di Moor Insights & Strategy, ha sottolineato che la difesa dovrà evolvere rapidamente con nuove tecniche come il red teaming automatizzato, la prevenzione del prompt injection e l’integrazione di threat intelligence nei sistemi di difesa. Anche i controlli DNS potrebbero avere un ruolo proattivo, identificando domini sospetti prima che diventino veicoli di malware potenziato dall’IA.
Inoltre, mentre le aziende guardano al futuro e alla minaccia del quantum computing, rischiano di sottovalutare il pericolo più immediato rappresentato dagli attacchi IA-driven. Già ora l’uso crescente di “agentic thugware” (malware con capacità autonome) obbliga le imprese a considerare soluzioni drastiche, come l’isolamento fisico dei sistemi mission-critical tramite data center air-gapped.
Il quadro (decisamente allarmante) che emerge è che l’IA non è più soltanto uno strumento nelle mani degli hacker, ma un vero e proprio protagonista degli attacchi. Le difese dovranno quindi adeguarsi con rapidità non solo sul piano tecnico, ma anche regolatorio ed etico per impedire che questa nuova generazione di cyberminacce diventi incontrollabile.
(Immagine in apertura: Shutterstock)