Il Senato ha approvato la prima legge in Italia sull’IA. Questo provvedimento, primo nel suo genere in Europa, stabilisce un quadro giuridico organico finalizzato a disciplinare lo sviluppo, l’utilizzo e la governance dei sistemi di IA, in modo che rispetti i principi costituzionali e i diritti fondamentali in piena coerenza con l’AI Act europeo, ma spingendo verso un modello più centrato sulla persona e sostenibile sotto il profilo dell’innovazione tecnologica.

Il percorso legislativo, non banale, ha attraversato diversi passaggi, inclusi quelli alla Camera dei Deputati, dove sono state introdotte modifiche rilevanti che hanno visto un coinvolgimento più robusto di Agcom nel coordinamento dei servizi digitali e un ruolo di regia presso la Presidenza del Consiglio dei Ministri, nonché l’abbandono dell’obbligo di mantenere i datacenter su territorio nazionale, misura inizialmente pensata per la sicurezza dei dati. Nel complesso, la legge si articola in 28 articoli che fanno trasparire una visione normativa dettagliata e strategica, intesa a equilibrare opportunità e rischi derivanti dall’applicazione delle intelligenze artificiali nella società italiana.

I pilastri del testo normativo si basano sull’adozione di principi chiave quali l’uso antropocentrico dell’IA, che pone la persona al centro di tutto il processo decisionale e operativo, la trasparenza e la responsabilità di sviluppatori e utilizzatori, la necessità di garantire la sicurezza dei sistemi IA e la protezione dei dati personali. La legge, oltre a riconoscere la portata innovativa e trasformativa delle tecnologie di IA in diversi settori, affronta inoltre temi cruciali come la dignità del lavoratore e la necessità di evitare discriminazioni automatizzate a seguito dell’utilizzo di sistemi algoritmici.

L’ambito di applicazione della legge è ampio e riguarda settori strategici come:

  • Sanità: si sottolinea la centralità della figura del medico nel processo decisionale, pur valorizzando l’uso dei dati per la ricerca scientifica
  • Pubblica Amministrazione e giustizia, con un particolare riferimento al supporto decisionale tracciabile che deve sempre mantenere la responsabilità ultima a carico di una persona fisica
  • Istruzione e sport, con un occhio di riguardo all’inclusione e all’accessibilità
italia legge ia

Crediti: Shutterstock

La governance nazionale dell’IA è assegnata principalmente a due enti chiave: l’Agenzia per la Cybersicurezza Nazionale (ACN), che ha poteri ispettivi e vigilanti sull’adeguatezza e la sicurezza dei sistemi, e l’Agenzia per l’Italia Digitale (AgID), che cura invece la gestione delle notifiche e la promozione di casi d’uso sicuri dell’IA per cittadini e imprese. Entrambe agiscono in un quadro di coordinamento interistituzionale stabile che fa riferimento diretto alla Presidenza del Consiglio, la quale sovrintende alla definizione della Strategia nazionale per l’IA aggiornata biennalmente e assicura la trasmissione di un report annuale al Parlamento.

Dal punto di vista dell’innovazione, la legge prevede un significativo investimento pubblico, con una dotazione di un miliardo di euro destinata a startup e piccole e medie imprese impegnate nello sviluppo e nell’applicazione di tecnologie di IA e connesse, allo scopo di sostenere e accelerare l’adozione di queste soluzioni nel tessuto economico nazionale. Questo modello pro-innovazione mira a garantire la competitività internazionale dell’Italia nel campo tecnologico, favorendo allo stesso tempo un’implementazione etica e responsabile.

Notevole rilievo viene poi riservato alla disciplina della privacy e alla tutela dei diritti personali particolarmente delicata nel contesto dell’IA, che rappresenta una frontiera complessa in materia di protezione dei dati personali. Il testo normativo introduce specifiche regole riguardanti il trattamento dei dati, con particolare attenzione all’estrazione e manipolazione di contenuti digitali e al diritto d’autore, entrando nel merito di come debbano essere tutelate anche le opere generate con il supporto di sistemi di IA. Questo riconoscimento della protezione solo per le opere frutto dell’ingegno umano mira a evitare distorsioni nel sistema del diritto d’autore.

Sul versante della sicurezza giuridica, la legislazione aggiorna il codice penale per includere sanzioni specifiche contro l’uso illecito dell’IA. Sono infatti gravi i rischi legati sia alla diffusione di contenuti ingannevoli generati automaticamente come i deepfake, sia alla compromissione della sicurezza di persone e infrastrutture critiche. La norma mira dunque a prevenire abusi e manipolazioni, mantenendo alta la soglia di responsabilità penale anche in questo ambito innovativo.

Un aspetto particolarmente innovativo riguarda la tutela dei minori di età in rapporto con l’utilizzo dei sistemi di intelligenza artificiale, altro tema cruciale data la crescente esposizione dei bambini e adolescenti a tecnologie digitali avanzate. La legge italiana introduce misure volte a garantire che l’accesso e l’interazione con sistemi IA siano sottoposti a filtri di verifica dell’età, onde evitare abusi e danni a categorie vulnerabili. Ai sensi della normativa, il consenso informato per il trattamento dei dati personali degli utenti minori è richiesto per gli over 14, in linea con quanto previsto dalle normative europee e italiane in materia di protezione dei dati, ma si sottolinea la necessità di strumenti tecnici adeguati per evitare l’elusione di tale limite.

L’attenzione normativa si estende quindi a tutt’è due la sfera della protezione digitale dei minori e all’importanza di estendere adeguate garanzie anche in termini di identità digitale, prevenzione di risposte inappropriate da parte di chatbot IA e rispetto delle norme di tutela privacy già esistenti nell’Unione Europea.

(Immagine in apertura: Shutterstock)