Anthropic fa causa al Pentagono USA, che la ha designata “rischio per la supply chain”

La crescente centralità dell’intelligenza artificiale nei sistemi di sicurezza nazionale sta aprendo un nuovo fronte di tensione tra settore tecnologico e istituzioni governative. Fronte che si è acuito ulteriormente dopo che Anthropic ha deciso di avviare un’azione legale contro il Dipartimento della Difesa degli Stati Uniti, contestando formalmente la scelta del Pentagono di inserirla in una blacklist legata ai rischi per la sicurezza della supply chain.
La causa, depositata presso un tribunale federale della California, rappresenta un passaggio significativo nella disputa tra la società fondata da Dario Amodei e l’apparato militare statunitense. Secondo la posizione espressa da Anthropic nei documenti giudiziari, la designazione imposta dal Pentagono sarebbe priva di fondamento giuridico e in contrasto con i principi costituzionali statunitensi, in particolare per quanto riguarda la libertà di espressione e le garanzie procedurali. L’azienda chiede quindi al giudice di annullare il provvedimento del Pentagono e di impedire alle agenzie federali di applicarne gli effetti.
L’origine del conflitto risale alla decisione del Dipartimento della Difesa di classificare Anthropic come potenziale rischio nella catena di approvvigionamento tecnologico. Il provvedimento, firmato dal segretario alla Difesa Pete Hegseth, limita la possibilità per il Pentagono e per i suoi fornitori di utilizzare le tecnologie dell’azienda, in particolare il modello generativo Claude. Dietro la misura ci sarebbe un dissenso sostanziale sulle modalità di utilizzo dell’intelligenza artificiale in ambito militare.
Anthropic ha infatti mantenuto nei propri modelli una serie di restrizioni progettate per impedire applicazioni considerate ad alto rischio, tra cui l’impiego in sistemi d’arma autonomi o in piattaforme di sorveglianza domestica. Il rifiuto di rimuovere queste limitazioni avrebbe provocato mesi di negoziati sempre più tesi con il Dipartimento della Difesa, culminati nella decisione di adottare la controversa designazione di “rischio per la supply chain”.
La questione si è ulteriormente complicata sul piano politico. Donald Trump, attraverso un messaggio pubblicato sui social media, ha invitato l’intero apparato federale a interrompere l’utilizzo delle tecnologie di Anthropic. Parallelamente, secondo indiscrezioni circolate negli ambienti di Washington, la Casa Bianca starebbe valutando un ordine esecutivo che formalizzerebbe l’esclusione dei modelli dell’azienda dalle operazioni governative.
Oltre al profilo giuridico, la vicenda ha implicazioni economiche potenzialmente rilevanti. Nei documenti presentati in tribunale, i dirigenti di Anthropic sostengono che la designazione potrebbe infatti compromettere in modo significativo le prospettive finanziarie della società. Le stime interne indicano il rischio di una riduzione dei ricavi prevista per il 2026 pari a diversi miliardi di dollari, accompagnata da un danno reputazionale che potrebbe ridurre la fiducia dei clienti istituzionali.
Le prime conseguenze commerciali stanno già emergendo. Secondo quanto dichiarato dal responsabile commerciale dell’azienda, un partner con un contratto annuale multimilionario avrebbe già deciso di abbandonare Claude a favore di un modello concorrente. Questo cambio di strategia avrebbe cancellato opportunità di ricavi potenziali superiori ai cento milioni di dollari. Anche alcune trattative con istituzioni finanziarie, dal valore complessivo stimato intorno ai 180 milioni, avrebbero subito un rallentamento significativo.
Anthropic sostiene comunque che la portata immediata del provvedimento sia relativamente circoscritta. La designazione del Pentagono riguarderebbe principalmente l’utilizzo della piattaforma Claude all’interno dei contratti tra il Dipartimento della Difesa e i suoi fornitori. Ciò non impedirebbe alle aziende private o ad altri enti di continuare a impiegare la tecnologia dell’azienda in progetti non collegati direttamente alle attività militari.
Il quadro legale è diventato ancora più complesso con la presentazione di una seconda causa. In questo nuovo ricorso, depositato presso la Corte d’Appello del Distretto di Columbia, Anthropic contesta un’ulteriore classificazione che la definisce rischio per la sicurezza della supply chain secondo una normativa federale più ampia. Se confermata, questa designazione potrebbe teoricamente estendere le restrizioni a gran parte dell’amministrazione civile statunitense, rendendo molto più ampio l’impatto operativo del provvedimento.
La controversia ha attirato l’attenzione anche all’interno della comunità scientifica che lavora sull’intelligenza artificiale. Un gruppo composto da trentasette ricercatori e ingegneri provenienti da aziende come OpenAI e Google ha presentato un documento legale a sostegno di Anthropic. Nel loro intervento, i ricercatori avvertono che un precedente di questo tipo potrebbe sia scoraggiare il confronto pubblico sui rischi dell’AI, sia limitare la capacità dell’industria di sviluppare soluzioni innovative ai problemi emergenti legati alla sicurezza delle tecnologie intelligenti.
(Immagine in apertura: Shutterstock)

