La decisione di tre agenzie chiave del governo federale statunitense di interrompere l’utilizzo dei prodotti di Anthropic rappresenta un passaggio di portata sistemica nel rapporto tra pubblica amministrazione e fornitori di intelligenza artificiale. I Dipartimenti di Stato, Tesoro e Salute e Servizi Umani hanno avviato la dismissione della piattaforma Claude, allineandosi alla posizione già assunta dal Dipartimento della Guerra sotto la spinta dell’amministrazione Trump.

La frattura nasce da un confronto sulle cosiddette “guardrails” tecnologiche, ossia i limiti operativi e di utilizzo dei modelli linguistici in ambito militare e di intelligence. Secondo diverse ricostruzioni, Anthropic avrebbe insistito su vincoli stringenti per impedire l’impiego dei propri sistemi in targeting autonomo di armi o in attività di sorveglianza domestica. L’amministrazione avrebbe ritenuto tali condizioni incompatibili con le esigenze operative del Pentagono, determinando uno stallo contrattuale poi degenerato in un bando formale con periodo di phase-out di sei mesi.

Il Dipartimento di Stato ha già comunicato la migrazione del chatbot interno StateChat verso GPT-4.1 di OpenAI, mentre il Dipartimento della Salute ha indirizzato i dipendenti verso alternative come ChatGPT e Gemini e anche il Tesoro ha annunciato la cessazione totale dell’uso dei prodotti Anthropic. Lo scenario che si è appena aperto è quello di un fornitore fino a ieri considerato asset strategico nella competizione globale sull’AI che viene improvvisamente trattato alla stregua di un rischio sistemico.

Il provvedimento assume contorni ancora più delicati se si osserva la struttura finanziaria di Anthropic, sostenuta proprio da Google e da Amazon. Il paradosso è che un’azienda finanziata da due colossi statunitensi viene estromessa dall’ecosistema federale per divergenze sull’uso militare della tecnologia. Parallelamente, OpenAI ha annunciato un accordo per operare nella rete classificata del Dipartimento della Guerra, precisando pubblicamente che i propri sistemi non saranno destinati intenzionalmente alla sorveglianza domestica di cittadini americani.

anthropic usa

Crediti: Shutterstock

Sul piano giuridico la questione è tutt’altro che lineare. L’amministrazione Trump potrebbe invocare addirittura la Supply Chain Risk Authority per qualificare Anthropic come rischio per la catena di approvvigionamento. Questo strumento consente di escludere fornitori da specifici contratti governativi qualora sussistano minacce di sabotaggio o compromissione. Tuttavia, diversi esperti di diritto degli appalti pubblici ritengono che l’autorità non si estenda a un divieto generalizzato di utilizzo commerciale da parte dei contractor al di fuori delle attività strettamente governative.

Esiste poi il Federal Acquisition Supply Chain Security Act, che prevede un iter procedurale articolato prima di imporre restrizioni formali, inclusa la possibilità per l’azienda interessata di rispondere e la notifica al Congresso. Non è stato reso pubblico se tali passaggi siano stati rispettati e ciò apre la strada a un probabile contenzioso, tra l’altro già preannunciato da Anthropic.

Al di là della sostenibilità legale, il danno reputazionale appare immediato. Aziende come Lockheed Martin, General Dynamics, RTX e L3Harris dipendono da contratti federali per volumi che superano centinaia di miliardi di dollari complessivi e, in un simile contesto, anche un divieto dalla base normativa incerta produce effetti concreti, per colpa dei quali le supply chain vengono “ripulite” in via prudenziale per evitare attriti con il committente principale.

L’episodio evidenzia inoltre una tensione strutturale tra governance etica dell’AI e prerogative sovrane in materia di sicurezza nazionale. Se un vendor impone limiti d’uso troppo restrittivi, rischia di perdere accesso ai contratti pubblici, ma se li allenta può compromettere la propria immagine presso clienti non governativi e comunità accademica.

Dal punto di vista industriale, l’esclusione di Claude potrebbe alterare temporaneamente gli equilibri competitivi nel mercato AI governativo statunitense favorendo OpenAI e Google, sebbene l’incertezza regolatoria rimanga valida anche per questi altri due big dell’IA. L’utilizzo di strumenti come la Supply Chain Risk Authority in ambiti che travalicano la sicurezza strettamente intesa potrebbe inoltre ridefinire il rapporto tra Stato e big tech, introducendo un precedente capace di influenzare investimenti, alleanze e strategie di prodotto nel settore dell’IA applicata alla difesa e all’amministrazione pubblica.

(Immagine in apertura: Shutterstock)