Gli USA ci ripensano e ora vogliono supervisionare i modelli di frontiera. Ma a beneficio di chi?

Chi si aspettava una prateria senza confini per i giganti dell’IA sotto il secondo mandato di Donald Trump sta assistendo a un cambio di rotta imprevisto e tecnicamente rilevante. Il dogma della deregolamentazione totale, quella filosofia del “lasciateli fare” che aveva caratterizzato i primi mesi del ritorno del tycoon alla presidenza, sta infatti mostrando le prime vistose crepe.
Le indiscrezioni che filtrano da Washington descrivono un’amministrazione impegnata a redigere un ordine esecutivo per istituire un gruppo di lavoro incaricato di esaminare procedure di supervisione governativa sui nuovi modelli di intelligenza artificiale. Si parla, in termini molto espliciti, di un processo di revisione formale che coinvolgerebbe i pesi massimi del settore, da OpenAI ad Anthropic, passando per Google.
Questa metamorfosi politica nasce da una causa ben precisa che si chiama Mythos. L’ultimo e potentissimo modello IA sviluppato da Anthropic è talmente sofisticato nell’individuare vulnerabilità di sicurezza nel software che la stessa azienda ha preferito non rilasciarla pubblicamente, paventando un vero e proprio “regolamento di conti” nel campo della cybersicurezza. Quando un’azienda privata decide di auto-censurarsi per timore delle conseguenze globali del proprio prodotto, persino il governo più libertario del mondo deve porsi qualche domanda sulla tenuta delle infrastrutture critiche nazionali.
Il fattore Mythos e la sicurezza nazionale
Il timore che serpeggia tra i corridoi della Casa Bianca riguarda la possibilità che un attacco hacker su vasta scala potenziato dall’IA possa colpire gli Stati Uniti proprio sotto la sorveglianza di chi ha rimosso i guardrail. Trump ha sempre definito l’IA come un “bellissimo bambino” che deve crescere senza i lacci della politica per vincere la competizione contro la Cina.
Tuttavia, il rischio che questo “bambino” diventi un’arma a doppio taglio per il Pentagono e le agenzie di intelligence ha spostato l’asse del discorso. Funzionari dell’amministrazione stanno ora valutando un sistema di revisione simile a quello britannico, per il quale organismi governativi verificano che i modelli rispettino determinati standard di sicurezza prima del loro debutto commerciale. L’obiettivo non sarebbe bloccarne l’uscita, ma garantire al governo un accesso prioritario per scopi difensivi.
Si tratta però di un equilibrio precario, considerando che da una parte c’è la necessità di non soffocare l’innovazione domestica con una regolamentazione eccessiva, mentre dall’altra parte i dati indicano che l’opinione pubblica americana, indipendentemente dall’appartenenza politica, è preoccupata. Circa la metà degli elettori di entrambi gli schieramenti teme infatti gli impatti dell’IA su privacy, lavoro e prezzi dell’energia. La politica, in questo caso, sta semplicemente seguendo la scia della percezione del rischio reale.
Cambi di leadership e tensioni interne
Il passaggio da una linea puramente non interventista a una più cauta coincide anche con un valzer di poltrone non indifferente. L’uscita di scena di David Sacks, lo “czar dell’IA” noto per le sue posizioni ultraliberiste, ha lasciato un vuoto riempito da figure come Susie Wiles e il Segretario al Tesoro Scott Bessent. Questi nuovi attori sembrano intenzionati a plasmare una politica più pragmatica, mediando tra le spinte del Pentagono e le resistenze delle Big Tech.
La situazione è ulteriormente complicata dal conflitto legale tra Anthropic e il Dipartimento della Difesa per una commessa da 200 milioni di dollari. Nonostante la causa in corso, la tecnologia della startup è ancora integrata in sistemi critici come Maven, utilizzato per l’analisi dell’intelligence e l’identificazione di obiettivi militari.
Questo paradosso, dove il governo litiga in tribunale con un fornitore di cui non può fare a meno per la propria difesa, evidenzia quanto sia profonda la dipendenza tecnologica dello Stato dal settore privato. Se l’amministrazione Trump deciderà di procedere con il “vetting” dei modelli, dovrà decidere quale agenzia avrà l’ultima parola. La National Security Agency e l’ufficio del Direttore dell’Intelligence Nazionale sono in prima linea, ma la sfida resta squisitamente tecnica e porta a chiedersi come si possa valutare la sicurezza di un modello che si muove più velocemente di quanto qualsiasi burocrate possa mai sognare di fare.
La sfida dell’IA “brillante”
Trump stesso aveva dichiarato che eventuali regole dovrebbero essere “più brillanti della tecnologia stessa”. È una frase d’effetto che nasconde la complessità del momento attuale. Se la National Security Agency sta già utilizzando Mythos per testare le vulnerabilità del software governativo, significa che la fase della sperimentazione pura è finita e siamo entrati in quella della militarizzazione dell’IA. Il dilemma per il B2B e per l’industria tecnologica americana è se accettare una supervisione che potrebbe rallentare lo sviluppo rispetto a Pechino, oppure rischiare che una vulnerabilità scoperta da un modello “troppo potente” metta in ginocchio l’economia digitale del Paese.
Le stesse aziende tech non sono concordi su come procedere. Alcune temono che troppi controlli consegnino il vantaggio competitivo alla Cina, mentre altre iniziano a comprendere che una cornice normativa chiara potrebbe proteggerle dalle responsabilità legali in caso di catastrofi informatiche. In questo scenario, il vecchio mantra della deregolamentazione a ogni costo sembra aver ceduto il passo a un sistema che ha scoperto, forse con un pizzico di ritardo, che la potenza di calcolo senza controllo è un rischio che nemmeno l’inquilino della Casa Bianca può permettersi di ignorare.
(Immagine in apertura: Shutterstock)

