Il Pentagono designa ufficialmente Anthropic “rischio supply chain”: è prima volta per un’azienda USA

La crescente integrazione dell’intelligenza artificiale nelle infrastrutture militari sta generando tensioni sempre più evidenti tra le aziende tecnologiche e il governo degli Stati Uniti. Uno degli episodi più controversi delle ultime settimane riguarda Anthropic, che è stato ufficialmente designato dal Dipartimento della Difesa americano come “rischio per la supply chain”.
Secondo quanto riportato da Bloomberg, la comunicazione sarebbe stata trasmessa direttamente ai vertici dell’azienda e rappresenterebbe una decisione altamente inusuale per un’impresa statunitense attiva nel settore dell’AI. In genere, questo tipo di classificazione viene infatti utilizzato nei confronti di aziende legate a Paesi considerati avversari strategici degli Stati Uniti. Applicare lo stesso criterio a una società americana (cosa mai successa prima) segna quindi una frattura significativa nel rapporto tra governo USA e industria tecnologica.
All’origine dello scontro c’è un disaccordo di fondo sull’impiego dell’IA in ambito militare. L’amministratore delegato di Anthropic, Dario Amodei, ha infatti rifiutato di autorizzare l’utilizzo dei modelli AI Claude per applicazioni che includano sia la sorveglianza di massa della popolazione statunitense, sia sistemi d’arma completamente autonomi privi di supervisione umana nelle decisioni di targeting e ingaggio. Si tratta di limiti coerenti con la linea etica dichiarata dall’azienda, che negli ultimi anni ha più volte sottolineato la necessità di mantenere un controllo umano nelle applicazioni più sensibili dell’AI.
Dal punto di vista del Pentagono, tuttavia, l’idea che un fornitore privato possa stabilire vincoli operativi sulle tecnologie acquistate dal governo rappresenta un precedente problematico. Secondo alcuni funzionari del Dipartimento della Difesa, le decisioni su come utilizzare l’AI nelle operazioni militari dovrebbero rimanere prerogativa esclusiva delle istituzioni statali, senza essere limitate dalle condizioni poste da aziende esterne.
La designazione come rischio per la supply chain ha conseguenze operative molto concrete. Tutte le aziende e le agenzie governative che collaborano con il Pentagono devono infatti certificare di non utilizzare i modelli di Anthropic nelle proprie infrastrutture tecnologiche. Come è facile immaginare, una restrizione di questo tipo potrebbe interrompere numerosi progetti in corso, costringendo diversi partner del Dipartimento della Difesa a rivedere rapidamente le proprie piattaforme software.
La decisione rischia di creare difficoltà anche per lo stesso apparato militare statunitense. Anthropic è infatti considerata una delle poche aziende di frontiera in campo AI ad aver sviluppato sistemi compatibili con ambienti classificati. Secondo diverse fonti, i modelli Claude sono attualmente utilizzati dalle forze armate americane in alcune operazioni legate al Medio Oriente, dove strumenti basati su AI vengono impiegati per analizzare grandi volumi di dati operativi.
Uno dei contesti in cui questa tecnologia sarebbe integrata è il Maven Smart System sviluppato da Palantir, piattaforma utilizzata per elaborare informazioni provenienti da sensori, immagini e altre fonti di intelligence. In scenari operativi complessi, la capacità di sintetizzare rapidamente dati eterogenei rappresenta un vantaggio strategico significativo, motivo per cui la possibile esclusione dei modelli di Anthropic potrebbe generare problemi tecnici e logistici.
Diversi osservatori hanno definito la scelta del Pentagono un precedente senza paragoni nel rapporto tra governo e industria tecnologica nazionale. Alcuni analisti vicini all’amministrazione repubblicana hanno inoltre criticato duramente la decisione, sostenendo che rischi di compromettere la leadership americana nel settore dell’intelligenza artificiale. Tra le voci più critiche figura Dean Ball, ex consulente della Casa Bianca sulle politiche AI, che ha descritto la mossa come un segnale di grave deterioramento nel rapporto tra istituzioni e innovatori tecnologici.
La vicenda ha provocato reazioni anche all’interno delle principali aziende del settore. Centinaia di dipendenti di OpenAI e Google hanno firmato una lettera in cui chiedono al Dipartimento della Difesa di ritirare la designazione, invitando inoltre il Congresso a esaminare la legittimità di una misura percepita da molti come un uso eccessivo dell’autorità governativa nei confronti di una società americana.
Al contrario, OpenAI ha recentemente raggiunto un accordo con il Dipartimento della Difesa che consente al governo di utilizzare i suoi modelli AI per “tutti gli scopi legali”. Una formulazione volutamente ampia che ha suscitato preoccupazioni tra alcuni dipendenti dell’azienda, timorosi che una simile decisione possa aprire la strada proprio agli utilizzi militari più controversi che Anthropic ha scelto di rifiutare.
(Immagine in apertura: Shutterstock)

