Una clausola inattesa nella proposta di legge fiscale dei Repubblicani alla Camera dei Rappresentanti ha scatenato reazioni contrastanti tra governi statali e osservatori del settore tecnologico. Nascosta all’interno del pacchetto legislativo elaborato dalla Commissione Energia e Commercio, la disposizione vieterebbe agli Stati e alle autorità locali di emanare regolamenti in materia di intelligenza artificiale per i prossimi dieci anni. Se approvata, la clausola sarebbe un importante regalo all’industria dell’IA, che da tempo spinge per un approccio normativo uniforme e permissivo a livello federale.

La misura favorirebbe aziende come OpenAI, Microsoft e altre che stanno sviluppando strumenti di IA sempre più sofisticati e pervasivi, con potenziali applicazioni in ambiti cruciali come sanità, giustizia, educazione e mercato del lavoro. Tuttavia, il provvedimento, pur avendo superato una prima fase alla Camera, ha scarse probabilità di passare al Senato, dove regole procedurali come la Byrd Rule vietano l’inclusione in una legge di bilancio di norme che non abbiano un impatto diretto su spesa o entrate fiscali. “Mi sembra un cambiamento di politica più che una misura fiscale”, ha dichiarato il senatore repubblicano John Cornyn, manifestando scetticismo sulla possibilità che la clausola sopravviva al vaglio della procedura.

Nel merito, la proposta stabilisce che “nessuno Stato o suddivisione politica può far rispettare leggi o regolamenti che disciplinano modelli di intelligenza artificiale, sistemi di intelligenza artificiale o sistemi decisionali automatizzati”. In pratica, sarebbe vietata qualsiasi regolamentazione locale su tecnologie IA che vanno da ChatGPT a sistemi utilizzati per selezionare candidati al lavoro, assegnare mutui o identificare minacce alla sicurezza.

Le implicazioni sarebbero ampie. Stati come la California, il Massachusetts e New York hanno già introdotto norme sull’uso dell’IA in ambito scolastico, sanitario o nella pubblica amministrazione. Inoltre, almeno 25 Stati hanno legiferato per limitare l’uso di deepfake nei messaggi politici, in risposta alla proliferazione di contenuti ingannevoli generati da IA durante le elezioni del 2024 in varie parti del mondo.

Crediti: Shutterstock

Crediti: Shutterstock

Tra i critici più vocali del provvedimento vi è il senatore statale californiano Scott Wiener, autore di un disegno di legge (poi bocciato dal governatore Gavin Newsom) che avrebbe imposto garanzie di sicurezza per i modelli di IA avanzata. Wiener ha definito la proposta dei Repubblicani “grottesca”, aggiungendo: “Il Congresso è incapace di regolamentare l’IA in modo significativo, ma è perfettamente in grado di vietare agli Stati di farlo”.

Dal lato dell’industria, invece, le grandi aziende tecnologiche vedono con favore l’idea di una regolamentazione federale leggera e omogenea. Sam Altman, CEO di OpenAI, ha dichiarato in un’audizione al Senato che un mosaico di normative statali “sarebbe estremamente oneroso” e ostacolerebbe la competitività delle imprese americane rispetto a quelle cinesi. “Serve un unico quadro normativo federale, con un approccio leggero, comprensibile e che ci permetta di procedere con la rapidità necessaria”, ha affermato Altman.

Alla stessa audizione, il senatore repubblicano Ted Cruz ha ipotizzato una fase di apprendimento decennale durante la quale agli Stati verrebbe impedito di legiferare in materia di IA, lasciando al solo governo federale il compito di definire regole generali. Altman si è detto favorevole, pur non avendo compreso pienamente la formula della moratoria. Brad Smith, presidente di Microsoft, ha espresso un cauto sostegno all’idea di dare tempo al Paese per definire regole ragionevoli, citando come esempio positivo la regolazione leggera che favorì l’espansione del commercio online negli anni ’90.

Si tratta di un cambio di passo per molti dirigenti tech, che in passato avevano lodato regolamenti statali come quelli approvati nello Stato di Washington sull’uso del riconoscimento facciale. Ora, però, le stesse aziende sembrano preferire un contesto normativo meno frammentato e più prevedibile.

Non mancano aperture al dialogo anche nel campo repubblicano. Il senatore Mike Rounds del South Dakota ha dichiarato di non essere contrario a una cornice normativa nazionale per l’IA: “Il commercio interstatale suggerisce che debba essere il Congresso a regolamentare queste attività. Se lasciamo fare ai singoli Stati, sarà un caos”.

(Immagine di apertura: Shutterstock)