AI Act: meglio non attendere conferma del rinvio e prepararsi per la scadenza di agosto

A fine marzo il Parlamento europeo ha adottato una serie di emendamenti alla proposta della Commissione europea di modifica dell’AI Act, nell’ambito del cosiddetto Digital Omnibus. Con questo voto, non solo si apre formalmente la fase dei negoziati tra Parlamento, Consiglio e Commissione, ma inizia anche a prendere forma la versione aggiornata di uno dei regolamenti più rilevanti per chi sviluppa o utilizza sistemi di IA in Europa. Le modifiche toccano infatti snodi operativi essenziali come scadenze, obblighi di trasparenza, sistemi vietati, formazione del personale e gestione dei dati sensibili.
Uno degli elementi più attesi riguarda il rinvio degli obblighi per i sistemi di IA classificati ad alto rischio. La proposta della Commissione aveva lasciato margini di incertezza sulle tempistiche, ma il Parlamento è intervenuto introducendo due date chiave. Per i sistemi elencati nell’Allegato III dell’AI Act (biometria, infrastrutture critiche, istruzione, occupazione, servizi essenziali, giustizia e gestione delle frontiere), la scadenza viene fissata al 2 dicembre 2027 rispetto all’originario 2 agosto 2026. Per i sistemi disciplinati da normative settoriali europee in materia di sicurezza dei prodotti, richiamati nell’Allegato I, il termine slitta invece al 2 agosto 2028, con un anno di proroga rispetto alla scadenza precedente.
Questa certezza delle date consente a fornitori e deployer di strutturare roadmap di compliance con orizzonti definiti. Il rischio, però, è che il tempo guadagnato venga percepito come un invito all’attesa. Al contrario, la complessità degli adeguamenti richiesti (mappatura dei rischi, costruzione di processi di supervisione umana, documentazione tecnica) rende necessario iniziare subito, non alla vigilia delle nuove scadenze.
Anche gli obblighi di trasparenza per i sistemi a rischio limitato, come i chatbot, beneficiano di una proroga. L’obbligo di apporre una filigrana digitale ai contenuti generati dall’IA, siano essi audio, immagini, video o testi, viene infatti posticipato al 2 novembre 2026, rispetto alla scadenza originaria del 2 agosto. Un margine operativo limitato, ma sufficiente per chi deve integrare queste funzionalità in sistemi già in produzione.
Tra le modifiche più discusse figura l’inclusione nell’articolo 5 dell’AI Act (che elenca i sistemi vietati) dei sistemi capaci di generare o manipolare contenuti sessualmente espliciti o intimi di persone fisiche identificabili senza il loro consenso. La formulazione adottata dal Parlamento introduce però una distinzione importante, per la quale il divieto non riguarda lo sviluppo di tali capacità in sé, bensì i sistemi che non incorporano misure tecniche efficaci per prevenirne l’abuso.
Questa impostazione sposta l’asse della valutazione dal prodotto al processo. Non è sufficiente dichiarare che un sistema non è progettato per generare contenuti illeciti, ma occorre dimostrare che sono stati implementati controlli tecnici adeguati, limitazioni funzionali e meccanismi di monitoraggio. Per i provider che operano in questo spazio, la valutazione dell’adeguatezza delle misure di sicurezza adottate diventa un elemento centrale della compliance, considerato che le sanzioni applicabili in caso di violazione possono raggiungere i 35 milioni di euro o il 7% del fatturato annuo globale.
La formazione del personale in materia di intelligenza artificiale era già entrata in vigore il 2 febbraio 2025, come uno dei primi obblighi operativi dell’AI Act. Il Parlamento ha riscritto la norma in chiave di “supporto”, con fornitori e deployer che dovranno sostenere attivamente il miglioramento dell’alfabetizzazione AI tra i propri dipendenti e le figure coinvolte nel funzionamento dei sistemi. Viene così respinta la proposta della Commissione, che avrebbe trasformato questo obbligo in un semplice incoraggiamento, svuotandolo di qualsiasi forza prescrittiva. Dopotutto, un’organizzazione in cui il personale non ha strumenti per interpretare il comportamento di un sistema AI difficilmente sarà in grado di garantire quella supervisione significativa che il Regolamento richiede.
Sul fronte della registrazione nella banca dati UE, il Parlamento ha scelto di mantenere l’obbligo di iscrizione anche nei casi in cui il provider ritenga, autonomamente, che il proprio sistema non rientri nella categoria ad alto rischio. È una scelta che riduce lo spazio per autovalutazioni non verificabili e privilegia la trasparenza nelle situazioni di incertezza classificatoria.
Quanto infine al trattamento di categorie particolari di dati per il rilevamento e la correzione dei bias algoritmici, il Parlamento ha ampliato la platea dei soggetti autorizzati, circoscrivendo però l’autorizzazione alle sole finalità di individuazione e correzione di distorsioni che possano incidere negativamente su salute, sicurezza, diritti fondamentali o produrre discriminazioni. Un’impostazione che riflette coerentemente l’approccio europeo alla protezione dei dati, basato su un’apertura funzionale bilanciata da un elevato livello di accountability.

