Il Pentagono accetta i limiti di OpenAI ma non quelli di Anthropic. Cosa c’è sotto?

Indice dell'articolo
Nell’arco di un weekend il Pentagono ha messo al bando Anthropic e, nel giro di poche ore, ha firmato con OpenAI un accordo che apparentemente contiene le stesse clausole di sicurezza che aveva rifiutato alla rivale. Dietro questa vicenda si intrecciano questioni contrattuali, tecnologiche, politiche e finanziarie che ridefiniscono il rapporto tra l’industria dell’intelligenza artificiale e il governo degli Stati Uniti.
Tutto nasce dal contratto da 200 milioni di dollari assegnato ad Anthropic nel luglio 2025. Claude, il modello di Anthropic, era all’epoca l’unico sistema AI di frontiera operativo sulle reti classificate del Pentagono, attraverso una partnership con Palantir.
A gennaio 2026, il segretario alla Difesa Pete Hegseth ha dichiarato che il Dipartimento avrebbe utilizzato solo modelli “liberi da qualsiasi vincoli di utilizzo che possano limitare applicazioni militari lecite”, e il 25 febbraio ha dato ad Anthropic un ultimatum: rimuovere tutte le salvaguardie entro il 27, oppure subire conseguenze pesanti.
Il CEO di Anthropic Dario Amodei ha rifiutato, spiegando la sua scelta in un post. Trump ha ordinato (con un post su Truth) a tutte le agenzie federali di cessare l’uso delle tecnologie Anthropic, e Hegseth ha designato l’azienda come “rischio per la catena di fornitura”, una classificazione già applicata ad aziende come Huawei e Kaspersky, ma mai prima d’ora a un’azienda americana.
Poche ore dopo, Sam Altman ha annunciato che OpenAI aveva firmato un accordo per il deployment dei propri modelli nella rete classificata del Pentagono, dichiarando che il contratto prevede le stesse linee rosse di Anthropic: divieto di sorveglianza di massa domestica, di armi autonome e di decisioni automatizzate ad alto rischio.
La domanda inevitabile è: perché il Pentagono le ha accettate da OpenAI e non da Anthropic?
Divieti assoluti contro divieti condizionati
La divergenza più sostanziale è nella formulazione giuridica. Anthropic chiedeva proibizioni assolute: il Pentagono non avrebbe potuto in nessun caso utilizzare Claude per sorveglianza di massa o armi autonome, e le salvaguardie a riguardo sono inserite nella Costituzione di Claude, una bussola morale incastonata nel modello.
OpenAI ha accettato la formula contrattuale che stabilisce che il Dipartimento della Difesa può usare l’IA “per tutti gli scopi leciti”, inserendo clausole che vietano queste pratiche solo nella misura in cui sono già vietate dalla legislazione vigente, che per esempio impedisce all’esercito e alla CIA di spiare i cittadini americani sul suo territorio.
Il punto più critico, sottovalutato da gran parte della stampa, riguarda non tanto le informazioni e comunicazioni private dei cittadini, ma quelle pubblicamente e commercialmente disponibili (CAI, commercially available information): dati di geolocalizzazione, cronologie web, informazioni finanziarie che le agenzie federali stanno già massivamente acquistando dagli stessi data broker che vendono quelle informazioni a scopo pubblicitario.
Anthropic chiedeva esplicitamente che il contratto vietasse l’impiego di Claude per analizzare quei dati, anche se al momento la legge la consentirebbe. Secondo Anthropic, l’AI amplifica drasticamente la capacità di analisi, trasformando una raccolta lecita in sorveglianza di fatto.
Il Pentagono ha rifiutato questa richiesta e nel contratto siglato con OpenAI difatti si parla solo di divieto di analizzare informazioni “private dei cittadini”, non di quelle pubblicamente disponibili: una sottigliezza che fa tutta la differenza del mondo.
Anche sulle armi autonome, il contratto OpenAI vieta l’uso del sistema solo “nei casi in cui la legge o la policy del Dipartimento richiedano il controllo umano”. Poiché i sistemi d’arma autonomi letali (LAWS) non sono pienamente vietati dalla legge, ma solo parzialmente regolati da una direttiva del Pentagono, il divieto è molto più debole di quanto appaia.
Sam Altman ha ammesso di essere preoccupato che possano sorgere dispute future su ciò cosa sia lecito e cosa no
Lo stesso Altman – che ha lanciato un’AMA su Twitter (Ask Me Anything, un dibattito in tempo reale con la community) – ha ammesso di essere preoccupato che possano sorgere dispute future su ciò cosa sia lecito e cosa no.
Architettura cloud contro garanzie contrattuali
OpenAI ha costruito la propria offerta su un principio riassunto da Katrina Mulligan, responsabile delle partnership di sicurezza nazionale dell’azienda: “L’architettura di deployment conta più del linguaggio contrattuale”. Il servizio è erogato esclusivamente via cloud API, quindi i modelli non possono essere integrati in sistemi d’arma o sensori sull’edge. OpenAI mantiene anche il pieno controllo del proprio stack di sicurezza e ci sono ingegneri con autorizzazioni di intelligence inseriti nel processo operativo.
Anthropic, al contrario, aveva Claude già dispiegato sulle reti classificate attraverso Palantir — un deployment più vicino all’edge, con meno leve di controllo remoto. Per questo puntava su garanzie contrattuali esplicite.
L’approccio cloud-only di OpenAI offrirebbe quindi un ulteriore livello di supervisione, ma solleva interrogativi sulla sua applicabilità in contesti operativi che richiedono bassa latenza. E resta la domanda più scomoda: se il Pentagono violasse i termini, quanto è realistico che un’azienda privata eserciti il potere di rescindere un contratto classificato sotto pressione politica e nel pieno di operazioni militari?
Quanto è realistico che, in caso di violazione del Pentagono, un’azienda privata rescinda un contratto classificato?
Il “virtue signalling” e il progetto da 500 miliardi
Il conflitto ha assunto rapidamente una dimensione personale. Un alto funzionario della Difesa ha evidenziato come parte del problema siano le prese di posizione dell’azienda sulle questioni etiche, che ha definito virtue signalling, mentre il sottosegretario Emil Michael ha dichiarato su X che Amodei avrebbe “un delirio di onnipotenza (God complex)”. Trump ha definito i vertici dell’azienda “matti della sinistra radicale”.
Nel corso degli anni, Amodei ha ripetutamente sostenuto la necessità di regolamentare l’AI, una posizione opposta a quella dell’amministrazione Trump che ha revocato l’executive order di Biden sull’AI e promuove invece la deregolamentazione totale.
OpenAI ha invece coltivato con l’esecutivo un rapporto ben diverso. Il progetto Stargate — un investimento da 500 miliardi in infrastrutture AI annunciato da Trump alla Casa Bianca il primo giorno pieno della sua presidenza — vede OpenAI come partner operativo principale, insieme a SoftBank, Oracle e il fondo emiratino MGX. Nell’occasione, Altman si è profuso in lodi e ringraziamenti a Trump. Colpire OpenAI come è stata colpita Anthropic significherebbe, per Trump, sabotare il proprio progetto bandiera nell’AI.
Colpire OpenAI significherebbe, per Trump, sabotare Stargate, il proprio progetto bandiera nell’AI
Nell’industria, però, la posizione di Anthropic gode di ampio sostegno. Oltre 60 dipendenti di OpenAI e 300 di Google hanno firmato una lettera aperta pro-Amodei. Lo stesso Altman ha definito la designazione di Anthropic come rischio per la supply chain “una pessima decisione”, chiedendone la revoca.
E dopo lo scontro con il Pentagono, l’app Claude ha superato ChatGPT come app gratuita più scaricata negli USA sull’Apple Store. Sono anche partite campagne di critica e boicottaggio dei prodotti OpenAI, aggregate attorno all’hashtag #quitGPT.
Dalla campagne elettorale alle criptovalute: gli intrecci finanziari della faccenda
Il quadro finanziario aggiunge un ulteriore livello di complessità. Il co-fondatore di OpenAI Greg Brockman figura tra i principali donatori individuali dei Super PAC pro-Trump (comitati elettorali che raccolgono e spendono enormi cifre di denaro in sostegno a un candidato) . Ma è la rete intorno a Stargate a risultare più significativa.
Tra i finanziatori iniziali del progetto c’è MGX, fondo presieduto dallo sceicco Tahnoon bin Zayed Al Nahyan, consigliere per la sicurezza nazionale degli Emirati. Lo stesso Al Nahyan ha acquistato il 49% di World Liberty Financial, l’impresa crypto della famiglia Trump, per 500 milioni di dollari, pochi giorni prima dell’insediamento.
Secondo il Wall Street Journal, circa 187 milioni sono finiti a entità della famiglia Trump. Successivamente, MGX ha utilizzato 2 miliardi in stablecoin di World Liberty Financial per un investimento nell’exchange Binance.
Il cerchio si chiude: lo stesso fondo emiratino è partner equity di Stargate con OpenAI, importante investitore nella piattaforma crypto dei Trump, e beneficiario di una decisione dell’amministrazione di approvare la vendita di chip AI avanzati agli Emirati. Un’operazione che il precedente governo Biden aveva bloccato per timori di trasferimento tecnologico verso la Cina.
Una resa dei conti che ridisegna i rapporti tra AI e potere
Quella tra Pentagono e Anthropic non è una semplice disputa contrattuale: è il primo scontro pubblico su chi controlla i limiti etici dell’intelligenza artificiale più potente del mondo. Anthropic ha scelto di tracciare linee rosse assolute che vanno oltre la legge vigente, sostenendo che la normativa attuale non sia ancora adeguata all’era dell’AI. OpenAI ha preferito appoggiarsi alla legislazione esistente, integrandola con garanzie tecniche. Il Pentagono ha trovato accettabile solo la seconda formula.
Le differenze tecniche da sole non spiegano il trattamento radicalmente diverso. La designazione senza precedenti di Anthropic come rischio per la supply chain e la rapidità con cui OpenAI ha occupato lo spazio vacante – specialmente in un momento del mercato in cui l’azienda di ChatGPT non sembra occupare una posizione di leadership tecnologica – sollevano domande che trascendono le policy della difesa.
In un ecosistema dove il progetto AI del presidente dipende da OpenAI, dove i finanziatori sovrani di quel progetto investono nella piattaforma crypto della famiglia presidenziale, e dove i consiglieri che definiscono la politica AI della nazione hanno interessi finanziari diretti nei veicoli collegati, la linea tra decisioni di sicurezza nazionale e incentivi economici privati diventa sempre più difficile da tracciare.
E se l’Unione Europea si offrisse di dare asilo politico a Claude?
E certo, è davvero strano sperare che l’opposizione a una deriva etica degli utilizzi dell’IA non arrivi dalla società, dai suoi rappresentanti eletti o dai giudici, ma dal CEO di un’azienda privata.
Lasciando correre un po’ la fantasia, non sarebbe male se l’Unione Europea si offrisse di dare asilo politico a Claude, proponendo ad Anthropic di trasferire la sua sede legale in un continente che condivide le sue preoccupazioni etiche e ha già approvato l’AI Act. Una legge che, per quanto imperfetta e migliorabile, è al momento la più completa e con la giurisdizione più ampia sul pianeta.