In uno scenario in cui i modelli AI più potenti sono diventati strumenti utilizzabili tanto dai difensori quanto dagli attaccanti, con asimmetrie di accesso che rischiano di favorire sistematicamente i secondi, OpenAI ha deciso di espandere il programma Trusted Access for Cyber (TAC) e di rilasciare GPT‑5.4‑Cyber, una variante del proprio modello flagship esplicitamente addestrata per casi d’uso in ambito difensivo.

Il programma TAC si fonda su criteri di verifica oggettivi (autenticazione dell’identità, segnali di fiducia graduati) per costruire un sistema in cui l’accesso si espande in proporzione alla verificabilità del soggetto richiedente. Gli utenti individuali possono autenticarsi direttamente tramite chatgpt.com/cyber, mentre le aziende accedono a un percorso dedicato attraverso il proprio rappresentante OpenAI.

Chi supera i livelli di verifica più avanzati, entra nel perimetro di GPT‑5.4‑Cyber, con soglie di rifiuto calibrate per attività legittime di sicurezza e funzionalità inedite come il reverse engineering binario, una capacità che permette di analizzare software compilato alla ricerca di malware e debolezze architetturali senza accedere al codice sorgente.

GPT‑5.4‑Cyber è una variante fine-tuned di GPT‑5.4 ottimizzata specificamente per i flussi di lavoro in ambito cybersecurity difensiva e, non a caso, arriva una settimana dopo che Anthropic ha presentato il proprio modello concorrente Claude Mythos (la competizione tra le due aziende IA sulla sicurezza informatica è ormai esplicita).

La caratteristica più significativa è il binary reverse engineering, grazie al quale GPT‑5.4‑Cyber può analizzare software compilato (file binari ed eseguibili) per individuare malware, vulnerabilità e debolezze architetturali senza richiedere accesso al codice sorgente, aprendo così a scenari concreti per l’analisi forense di software sospetto e per la valutazione della sicurezza di sistemi closed-source.

Rispetto ai modelli precedenti, Cyber opera con soglie di rifiuto più basse per le attività sensibili di cybersecurity (ricerca di vulnerabilità, analisi di exploit e operazioni dual-use che normalmente avrebbero innescato un blocco). Il modello è inoltre progettato per lavorare autonomamente per ore o giorni su task complessi di sicurezza, grazie alle capacità agentive ereditate da GPT‑5.4.

GPT-5.4-Cyber

Crediti: Shutterstock

I risultati nei test sono significativi. GPT‑5.4‑Cyber raggiunge l’88% di successo nelle simulazioni di attacchi informatici e supera il 73,33% degli scenari nel benchmark Cyber Range, che replica operazioni cyber end-to-end. Per contestualizzare il salto qualitativo, GPT‑5 nell’agosto 2025 si attestava al 27% sullo stesso benchmark, mentre GPT‑5.1‑Codex-Max a novembre 2025 aveva raggiunto il 76%. Cyber è anche il primo modello general purpose di OpenAI a ricevere la classificazione di rischio “alto” per la cybersecurity nel proprio Preparedness Framework.

La maggiore permissività del modello è bilanciata da un’architettura di controllo riprogettata, che include sistemi di monitoraggio avanzati, controlli di accesso fidato e meccanismi di blocco asincrono per le richieste ad alto rischio. L’accesso è riservato ai tier più alti del programma TAC, con conseguente limitazione di alcune funzionalità standard come lo Zero-Data Retention. Il rollout parte da vendor di sicurezza verificati, organizzazioni e ricercatori selezionati, proprio per mantenere visibilità sul contesto d’uso in questa fase iniziale.

Accanto all’espansione del programma TAC, OpenAI ha progressivamente affinato Codex Security, uno strumento che integra il monitoraggio automatico delle codebase direttamente nel ciclo di sviluppo. Dalla sua research preview, il sistema ha contribuito alla correzione di oltre 3.000 vulnerabilità classificate come critiche o ad alta gravità, agendo in modo continuo piuttosto che attraverso audit periodici.

Il programma Codex per i progetti open source, che ha già raggiunto oltre mille repository con scanning gratuito, estende questa logica all’ecosistema più ampio, dove spesso i manutentori non hanno le risorse per condurre revisioni di sicurezza strutturate. OpenAI ha anche contribuito con finanziamenti a iniziative di sicurezza open source attraverso la Linux Foundation, segnalando che la resilienza dell’ecosistema viene intesa come obiettivo collettivo, non come vantaggio competitivo riservato alle organizzazioni con budget adeguati.

OpenAI è esplicita su un punto che molte aziende tendono a lasciare sullo sfondo, ovvero che le salvaguardie attuali sono state calibrate per i modelli esistenti e potrebbero non essere sufficienti per quelli di prossima generazione. I modelli frontier del futuro prossimo avranno capacità che supereranno quelle degli attuali sistemi purpose-built e ciò richiede che i meccanismi di difesa crescano alla stessa velocità. Il programma TAC e GPT‑5.4‑Cyber sono il banco di prova di questa architettura, andando a comporre un sistema di accesso verificato, deployment iterativo e investimento continuo nell’ecosistema difensivo pensato per scalare con i modelli.