La discussione sul rinvio dell’AI Act si arena: i sistemi a rischio potrebbero avere carta bianca

Nello stallo che si è consumato ieri dopo dodici ore consecutive di negoziati conclusi senza alcun risultato tangibile, i rappresentanti dei Paesi membri e i legislatori del Parlamento europeo non sono riusciti a trovare un’intesa sulla revisione dell’AI Act, il regolamento sull’intelligenza artificiale entrato in vigore nell’agosto 2024 e attualmente nella fase più delicata della propria implementazione progressiva. Le discussioni riprenderanno presumibilmente entro due settimane, ma per chi gestisce strategie di adozione tecnologica all’interno di un’azienda ogni settimana di ambiguità regolatoria si traduce in decisioni congelate, investimenti rimandati e budget bloccati in attesa di chiarimenti che tardano ad arrivare.
Il cantiere aperto del Digital Omnibus
La revisione dell’AI Act non viaggia come atto normativo isolato, ma si inserisce nel più vasto progetto noto come Digital Omnibus, il pacchetto legislativo con cui la Commissione Europea ha tentato di razionalizzare e semplificare simultaneamente una serie di regolamenti digitali stratificatisi negli anni. L’intenzione politica dichiarata era quella di alleggerire il peso burocratico sulle imprese del continente, ridando ossigeno a un ecosistema imprenditoriale che arranca visibilmente nel confronto con i colossi statunitensi e asiatici.
Un obiettivo comprensibile, persino urgente, se si considera la velocità con cui le piattaforme americane e i campioni tecnologici cinesi avanzano su terreni dove l’Europa fatica a tenere il passo. Il problema è che semplificare regole complesse richiede una volontà politica coesa che, evidentemente, a Bruxelles manca ancora. Il Digital Omnibus ingloba norme fondamentali per qualsiasi responsabile della conformità digitale aziendale; oltre all’AI Act, troviamo infatti anche il GDPR, la direttiva e-Privacy e il Data Act, un intreccio normativo che tocca praticamente ogni aspetto della gestione dei dati e dell’automazione intelligente nelle organizzazioni moderne.
Il nodo delle esenzioni settoriali
Entrando nel merito tecnico del fallimento negoziale di ieri, le fonti vicine ai tavoli di lavoro indicano come elemento dirimente lo scontro sulla questione delle esenzioni settoriali. Alcuni Paesi membri e una parte consistente dei legislatori europei hanno spinto con insistenza per sottrarre all’applicazione orizzontale dell’AI Act i settori industriali già sottoposti a regolamentazioni verticali preesistenti, in particolare quelli coperti dalle normative sulla sicurezza dei prodotti.
Questa posizione ha in effetti una logica pratica comprensibile, visto che imporre un secondo strato di obblighi di compliance su comparti già gravati da audit, certificazioni e processi di validazione settoriali equivale a moltiplicare i costi amministrativi senza necessariamente migliorare la qualità della supervisione. Il manifatturiero avanzato, il medicale, l’automotive e le infrastrutture critiche sono tutti settori che operano quotidianamente su tecnologie di analisi predittiva e automazione decisionale e che rischiano di vedere i propri cicli di sviluppo paralizzati da richieste documentali sovrapposte e potenzialmente contraddittorie.
Dall’altra parte del tavolo, chi ha resistito a queste esenzioni teme una pericolosa frammentazione del perimetro applicativo del regolamento, con zone grigie sfruttabili per aggirare le tutele più stringenti previste nelle aree classificate ad alto rischio. L’AI Act individua come critici una serie di ambiti operativi estremamente rilevanti per il B2B moderno, tra cui l’identificazione biometrica dei lavoratori, i sistemi di scoring creditizio, la selezione automatizzata del personale, la gestione algoritmica dei servizi sanitari e le tecnologie a supporto delle attività di law enforcement. Cedere su questi fronti, anche parzialmente, significa aprire falle normative in punti dove la posta in gioco per i diritti fondamentali delle persone è massima.
La lettura politica più efficace dello stallo l’ha fornita l’eurodeputata olandese Kim van Sparrentak, con una dichiarazione che merita di essere presa sul serio ben al di là del tono polemico. La sua osservazione sulle Big Tech pronte a festeggiare mentre le aziende europee eticamente responsabili annegano nel caos normativo fotografa una distorsione competitiva reale e strutturale.
I grandi operatori tecnologici extraeuropei dispongono di risorse legali e capacità lobbistiche che consentono loro di navigare l’incertezza regolatoria come se fosse un elemento naturale del proprio ambiente operativo. Per una media impresa italiana o tedesca che ha investito negli ultimi mesi per adeguare i propri sistemi di intelligenza artificiale ai requisiti dell’AI Act, questo stallo significa invece trovarsi in una posizione paradossalmente svantaggiata rispetto a chi ha semplicemente aspettato. Chi ha fatto bene i compiti a casa, per usare le parole dell’eurodeputata, si ritrova oggi a sostenere costi di adeguamento reali di fronte a un quadro normativo ancora in divenire.
La presidenza cipriota del Consiglio ha preso atto del fallimento con dichiarazioni asciutte e prive di prospettive temporali definitive, alimentando ulteriormente il senso di deriva che caratterizza questa fase del processo legislativo europeo sull’intelligenza artificiale. Oltre al nulla di fatto delle scorse ore, la situazione attorno all’AI Act è resa ancor più complessa da un elemento normativo ben preciso.
Dal momento che ai sensi dell’articolo 111 della legge il provvedimento non ha effetto retroattivo, i sistemi AI immessi sul mercato prima delle nuove scadenze non sono tenuti a conformarsi, a meno che non subiscano modifiche sostanziali. Ciò permetterà alle aziende di rilasciare velocemente sistemi a rischio che non saranno mai sottoposti alla legge.
(Immagine in apertura: Shutterstock)

