Ddl Intelligenza artificiale, obiettivi principali e dubbi sollevati

Dal 16 aprile è iniziato in Commissione alla Camera l’esame del Disegno di legge contenente disposizioni e delega al Governo in materia di intelligenza artificiale, già approvato al Senato il 20 marzo.
Il disegno di legge era stato presentato circa un anno fa (20 maggio 2024) dopo che il Parlamento europeo aveva approvato il regolamento sull’intelligenza artificiale (AI ACT del 12 marzo 2024), frutto dell’accordo raggiunto con gli Stati membri nel dicembre 2023.
Motivazioni alla base della normativa italiana
Il Regolamento europeo AI ACT rimanda agli Stati la disciplina di dettaglio in alcuni settori quali i sistemi IA ad uso generale, la Governance, nonché i sistemi cosiddetti ad alto rischio.
L’obiettivo del disegno di legge italiano è dunque quello di dettare una normativa nazionale che senza sovrapporsi al regolamento UE ne accompagni le disposizioni predisponendo un sistema di principi, governance e misure specifiche adatte al contesto italiano per cogliere tutte le opportunità dell’intelligenza artificiale. Così facendo, si punta a creare una normativa in grado di anticipare i termini previsti dal regolamento Ue, in particolare per i 12 mesi per i sistemi di uso generale e per la Governance e i 36 mesi per i sistemi ad alto rischio.
Tempistiche di attuazione del regolamento Ue
Il regolamento Ue infatti è entrato in vigore venti giorni dopo la pubblicazione sulla Gazzetta ufficiale europea (13 giugno 2024) ma inizierà ad applicarsi 24 mesi dopo l’entrata in vigore, salvo quanto riguarda alcuni casi specifici:
- divieti relativi a pratiche vietate, che si applicano a partire da sei mesi dopo l’entrata in vigore;
- codici di buone pratiche (nove mesi dopo);
- norme sui sistemi di IA per finalità generali, compresa la governance (12 mesi) e gli obblighi per i sistemi ad alto rischio (36 mesi).
Obiettivi generali del Ddl italiano
Gli obiettivi generali del Ddl italiano sono il rafforzamento della competitività italiana e garantire ai cittadini italiani l’uso affidabile e responsabile dell’IA, assicurando la supervisione umana in ogni fase di sviluppo e di utilizzo dei sistemi IA la tutela dei diritti fondamentali.
Sono state valutate attentamente tutte le condizioni giuridiche, organizzative, finanziarie, economiche, sociali e amministrative che possono incidere in modo significativo sulla concreta attuazione dell’intervento e sulla sua efficacia.
Dal punto di vista regolatorio e di vigilanza, sono state indicate due autorità indipendenti, secondo lo schema previsto dal Regolamento europeo, l’Agenzia per l’Italia digitale (AgID) e l’Agenzia per la cybersicurezza nazionale (ACN) che dovrà assicurare la tutela della cybersicurezza nazionale, nonché la vigilanza, ivi incluse le attività ispettive e sanzionatorie, dei sistemi di intelligenza artificiale.
Entrambe le Autorità dovranno assicurare l’istituzione e la gestione congiunta di spazi di sperimentazione finalizzati alla realizzazione di sistemi di intelligenza artificiale, anche attraverso il contributo dei soggetti che dovranno sostenere piattaforme digitali per lo sviluppo e l’implementazione a favore di imprese e amministrazioni dei dataset, di modelli fondativi, di applicazioni.
I dubbi sollevati da Il Foglio
In un recente articolo apparso sul Foglio, firmato da Andrea Boscaro e Marco Leonardi, sono stati avanzati alcuni dubbi sull’efficacia del Ddl italiano, tanto da metterne in discussione persino la sua ragion d’essere. Gli autori pongono l’attenzione sul fatto che altri Paesi come Francia e Germania abbiano per il momento scelto una strada diversa, senza introdurre leggi parallele potenzialmente disallineate, evitando il rischio di frammentazione normativa e l’aumento della burocrazia.
L’art. 6, fanno notare inoltre, obbliga a conservare i dati utilizzati dai sistemi di IA pubblici su server localizzati esclusivamente nel territorio italiano, ma questo potrebbe già essere in contrasto con il principio di libera circolazione dei dati sancito dal diritto Ue.
Ambigua anche l’enunciazione dell’art.25 sul Diritto d’autore: a loro parere sarebbe stato opportuno prevedere indicazioni più concrete, come per esempio il divieto di usare l’apporto di lavoratori per addestrare soluzioni di IA senza riconoscerne adeguato compenso.
Infine si punta il dito sulla dotazione finanziaria del fondo da un miliardo di euro gestito da Cdp Venture Capital, ritenuta insufficiente. La Francia ha annunciato oltre 100 miliardi di euro in investimenti in IA per il prossimo decennio, la Germania punta su poli d’eccellenza e collaborazioni pubblico-private con budget molto superiori.
Anche in Vaticano occhi puntati sull’intelligenza artificiale
Per finire, in questi giorni in cui praticamente molti media sono stati concentrati sull’elezione del nuovo Papa, a chi si occupa di tecnologia, innovazione non sono certamente sfuggite le parole con cui Leone XIV ha motivato la scelta del suo nome: “Papa Leone XIII con la storica enciclica Rerum Novarum affrontò la questione sociale nel contesto della prima grande rivoluzione industriale. E oggi la Chiesa offre a tutti il suo patrimonio di dottrina sociale per rispondere a un’altra rivoluzione industriale e agli sviluppi dell’intelligenza artificiale che comportano nuove sfide per la difesa della dignità umana, della giustizia e del lavoro”.
Insomma, non ci sarebbe da meravigliarsi se in un prossimo futuro venisse alla luce proprio un’enciclica sui temi dell’innovazione tecnologica e dell’intelligenza artificiale, così come dieci anni fa fu scritta quella sui temi ambientali (Laudato Si, maggio 2015).