Le aziende IA, anche europee, chiedono un rinvio dell’applicazione dell’AI Act. Linee guida entro l’anno

L’Unione Europea si trova al centro di un acceso dibattito sulla regolamentazione dell’intelligenza artificiale. L’AI Act, la prima normativa orizzontale e vincolante al mondo sull’intelligenza artificiale, mira a garantire che i sistemi IA utilizzati nell’UE siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente. Tuttavia, l’entrata in vigore di questa legge ha scatenato una forte reazione da parte delle imprese europee e internazionali, che chiedono una pausa nell’applicazione delle regole per non compromettere la competitività del continente rispetto a Stati Uniti e Cina.
Un gruppo di oltre 50 aziende e organizzazioni europee di primo piano, tra cui Mistral, Airbus, ASML, Publicis e Siemens Energy, ha recentemente pubblicato una lettera aperta rivolta ai leader dell’UE nella quale si chiede di posticipare di due anni l’entrata in vigore dell’AI Act, sottolineando la necessità di privilegiare la qualità regolatoria rispetto alla velocità di implementazione. Secondo i firmatari, una pausa invierebbe un segnale forte agli innovatori e agli investitori globali, dimostrando che l’Europa è seriamente impegnata in un’agenda di semplificazione e competitività.
Le aziende temono infatti che l’attuale tempistica e la complessità delle nuove regole possano ostacolare lo sviluppo di “campioni europei” dell’IA e rallentare l’adozione di queste tecnologie in tutti i settori industriali. In particolare, si evidenzia il rischio che le imprese europee si trovino svantaggiate rispetto ai grandi player statunitensi e cinesi, che operano in contesti normativi meno stringenti o più flessibili.
I punti chiave dell’AI Act
L’AI Act adotta un approccio basato sul rischio, distinguendo tra sistemi IA a rischio inaccettabile (vietati), ad alto rischio (soggetti a requisiti stringenti di governance e gestione dei dati) e a rischio minore (per cui sono previsti obblighi di trasparenza ridotti). Tra le misure più discusse vi sono il divieto del riconoscimento facciale in tempo reale negli spazi pubblici e l’obbligo di valutazione e mitigazione dei rischi per i modelli di IA generali (GPAI), come quelli sviluppati da Google, OpenAI e Mistral.
Le aziende che sviluppano modelli GPAI dovranno produrre documentazione tecnica, rispettare le norme UE sul copyright, fornire sintesi dettagliate dei dati di addestramento e valutare i modelli per bias, tossicità e robustezza prima della messa in commercio. I modelli considerati “ad alto impatto” dovranno inoltre sottoporsi a test avversari, segnalare incidenti rilevanti alla Commissione Europea e comunicare informazioni sull’efficienza energetica.
Il ruolo del Codice di Condotta
Uno degli elementi più attesi per facilitare l’adeguamento delle imprese è il Codice di Condotta (Code of Practice), uno strumento volontario che dovrebbe aiutare le aziende a interpretare e applicare le nuove regole, in particolare per i modelli GPAI. La pubblicazione del Codice, inizialmente prevista per maggio 2025, è stata rinviata e ora si prevede che entrerà in vigore solo alla fine del 2025. Le aziende che aderiranno al Codice potranno beneficiare di una maggiore certezza giuridica, mentre chi non lo farà non potrà avvalersi di tali garanzie.
La Commissione Europea ha ribadito il proprio impegno a mantenere gli obiettivi dell’AI Act, sottolineando che la sicurezza e la trasparenza dei sistemi IA restano priorità irrinunciabili. Tuttavia, la mancanza di linee guida chiare e tempestive alimenta l’incertezza tra le imprese, che temono di non riuscire a conformarsi alle nuove regole nei tempi previsti.
Le richieste di rinvio e semplificazione avanzate dalle imprese sono state duramente criticate da organizzazioni della società civile come Corporate Europe Observatory. Secondo questi gruppi, la strategia di “ritardare, sospendere, deregolamentare” rappresenta il classico schema di lobbying delle Big Tech per indebolire regole pensate per proteggere i cittadini da sistemi IA potenzialmente discriminatori e pericolosi. Vengono citati esempi concreti di rischi già emersi, come la sorveglianza di massa, la diffusione di disinformazione durante le elezioni e l’uso di sistemi IA difettosi nei programmi di welfare.
In questo scenario, il futuro dell’AI Act dipenderà dalla capacità delle istituzioni europee di trovare un equilibrio tra questi interessi contrapposti, garantendo da un lato la tutela dei diritti fondamentali e dall’altro la possibilità per le imprese europee di competere ad armi pari nel mercato globale dell’intelligenza artificiale.
(Immagine in apertura: Shutterstock)