Un banale errore di configurazione nel sistema di gestione dei contenuti di Anthropic ha reso pubblicamente accessibile, in un archivio dati non protetto e indicizzato dai motori di ricerca, una bozza di blog post che descriveva in dettaglio un modello ancora non annunciato (Claude Mythos). Il documento parla esplicitamente di “rischi di cybersecurity senza precedenti” e, da quel momento, il progetto Claude Mythos è diventato argomento di discussione tra esperti di sicurezza informatica, investitori e funzionari governativi.

Anthropic ha confermato l’esistenza del modello, definendolo un “salto generazionale” rispetto a tutto ciò che l’azienda ha prodotto finora. Nelle parole di un portavoce, Mythos presenta “avanzamenti significativi nel ragionamento, nella programmazione e nella cybersecurity”, collocandosi al di sopra persino degli attuali modelli Opus nella gerarchia interna delle capacità.

Il documento trapelato introduce anche una nomenclatura inedita. Mythos farebbe parte di un gruppo chiamato Capybara, descritto nel testo come“un nuovo nome per un nuovo livello di modello: più grande e più intelligente dei nostri modelli Opus, che fino ad ora erano i più potenti”. I due nomi sembrano riferirsi alla stessa architettura di base, con Capybara come denominazione del tier e Mythos come nome specifico del modello. La distinzione ricorda la struttura già adottata da Anthropic con la famiglia Claude (Haiku, Sonnet, Opus) ma proiettata su una scala superiore, pensata per affrontare problemi di complessità più elevata con maggiore autonomia e precisione.

Il punto più delicato della vicenda non è l’esistenza del modello, ma le sue implicazioni nel campo della sicurezza informatica. Secondo quanto riportato da Axios, Anthropic starebbe avvertendo in forma riservata i vertici governativi americani che Mythos aumenterebbe significativamente la probabilità di attacchi informatici su larga scala nel corso del 2026.

Claude Cobol

Il ragionamento di fondo è che i modelli AI di nuova generazione potenziano gli agenti autonomi, sistemi capaci di pianificare ed eseguire sequenze di azioni senza intervento umano continuo. Nelle mani di attori malevoli, questa capacità si traduce nella possibilità di condurre più campagne di hacking simultaneamente, con un livello di coordinamento e adattamento che rende la difesa strutturalmente più difficile.

A questo si aggiunge un secondo vettore di rischio, già segnalato da un dirigente di Palo Alto Networks il mese scorso. L’uso crescente di agenti AI da parte dei dipendenti aziendali crea connessioni implicite tra sistemi interni che possono diventare punti d’ingresso per i criminali informatici. Le identità digitali degli utenti risultano inoltre più facili da compromettere in un ambiente in cui i modelli linguistici avanzati abbassano la soglia tecnica necessaria per costruire attacchi di ingegneria sociale convincenti.

Le azioni delle società di cybersecurity che hanno registrato un calo nelle ore successive alla diffusione delle notizie su Mythos, segno che gli investitori hanno interpretato il leak più come una minaccia per il settore che come un’opportunità. Anthropic ha però chiarito che Mythos non è imminente per il pubblico generale.

Il modello è infatti descritto come estremamente intensivo dal punto di vista computazionale e costoso da eseguire, tanto che prima di qualsiasi rilascio l’azienda intende lavorare su un’ottimizzazione sostanziale dell’efficienza. Nel frattempo, il leak ha riaperto il dibattito sul rapporto tra sviluppo di modelli AI avanzati e responsabilità nella comunicazione dei rischi associati, un tema su cui Anthropic ha costruito parte della propria identità pubblica come azienda orientata alla sicurezza.

(Immagine in apertura: Shutterstock)