Che ChatGTP e, più in generale, l’AI generativa avessero un potenziale immenso lo si è capito in fretta. Ma forse altrettanto in fretta si è cercato si sfruttarlo, senza valutare adeguatamente le eventuali implicazioni o conseguenze. L’Italia è stato tra i primi Paesi a cercare di porre dei confini per stabilire fino a che punto ci si può spingere senza violare la privacy. Altre nazioni hanno imboccato una strada simile. E ora arriva addirittura la notizia dell’avvio di una task force europea per promuovere la cooperazione e lo scambio di informazioni sulle possibili azioni di applicazione condotte dalle varie autorità di protezione dei dati nazionali.

Insomma, sembra proprio che si stia diffondendo l’opinione che per poter usare efficacemente ChatGTP bisogna sapere come dominarlo, impedendogli di fare tutto ciò che vuole o di cui sarebbe capace altrimenti i rischi che si corrono potrebbero essere davvero grossi.

50 esperti per una legge a più ampia copertura

È su questa falsariga che si è mosso un gruppo di oltre 50 esperti di intelligenza artificiale e istituzioni. Tale gruppo ha redatto un documento con il quale invita i funzionari europei a cercare di stabilire una regolamentazione più ampia per la tecnologia nell’ambito dell’AI Act dell’Unione Europea.

A riguardo ricordiamo che la proposta originaria di legge sull’intelligenza artificiale è stata introdotta dalla Commissione europea nell’aprile 2021 e di fatto esentava gli sviluppatori dell’IA per impieghi generici (General Purpose AI, GPAI) dall’obbligo di rispettare una serie di requisiti di documentazione e di responsabilità previsti dalla legge. Questi requisiti si applicano solo all’intelligenza artificiale ad alto rischio, definita tale nella legge in base all’uso o al contesto. Un’altra disposizione (articolo 28) ha confermato questa posizione, implicando che gli sviluppatori di IA sarebbero diventati responsabili della conformità solo se avessero modificato o adattato in modo significativo il sistema di IA per un uso ad alto rischio.

Il successivo “approccio generale” del Consiglio europeo ha assunto una posizione diversa, secondo la quale i fornitori originari di GPAI saranno soggetti a determinati requisiti di legge, anche se l’elaborazione delle specifiche sarà delegata alla Commissione.

L’approccio dell’AI Act alle GPAI è finalizzato a creare un quadro normativo per affrontare le problematiche a livello globale (in modo non dissimile dagli obiettivi normativi del GDPR).

Il gruppo di firmatari, che comprende istituzioni come Mozilla Foundation ed esperti come Timnit Gebru (nota ricercatrice sull’etica dell’AI), ritiene che, con il recente aumento dell’attenzione pubblica sull’IA generativa, ci sia il rischio che la posizione normativa finisca per adattarsi troppo alle preoccupazioni del momento. E, quindi, anche se gli strumenti GPAI potrebbero non essere pensati per usi ad alto rischio, potrebbero comunque essere impiegati in ambiti che li rendono particolarmente rischiosi. In tal senso, sul documento come esempio si indicano espressamente gli strumenti di IA generativa, come ChatGPT, DALL-E, Bard o Midjourney, che però sono definiti come la punta dell’iceberg.

Cinque considerazioni chiave

Il documento redatto dagli esperti e dalle istituzioni propone cinque considerazioni chiave per guidare la regolamentazione delle GPAI:

  1. Quella della GPAI è una categoria estesa. Affinché la legge europea sull’intelligenza artificiale sia a prova di futuro, deve essere applicata a uno spettro di tecnologie, anziché essere limitata unicamente a chatbot o large language model (LLM).
  2. I modelli GPA comportano rischi intrinseci e hanno causato comprovati danni di vasta portata. Sebbene questi rischi possano essere trasferiti a un’ampia gamma di attori e applicazioni downstream, non possono essere mitigati in modo efficace a livello di applicazione.
  3. La GPAI deve essere regolamentata durante l’intero ciclo del prodotto, non solo a livello applicativo, per tenere conto della varietà di soggetti coinvolti. La fase di sviluppo iniziale è cruciale e le aziende che sviluppano questi modelli devono essere responsabili dei dati che utilizzano e delle scelte progettuali che fanno. Senza una regolamentazione a livello di sviluppo, l’attuale struttura della supply chain dell’IA consente effettivamente agli attori che creano i modelli di trarre profitto da un’applicazione downstream, eludendo qualsiasi responsabilità.
  4. Gli sviluppatori di GPAI non dovrebbero poter escludere la propria responsabilità semplicemente avvalendosi di una clausola standard. Questo approccio crea una pericolosa scappatoia che svincola gli sviluppatori originali di GPAI (spesso grandi aziende dotate di valide risorse), attribuendo invece la responsabilità solo agli attori downstream che non hanno le risorse, l’accesso e la capacità di mitigare tutti i rischi.
  5. Quella della GPAI è un’area di ricerca attiva e molto contestata e dovrebbe essere oggetto di un’ampia consultazione, anche con la società civile, con i ricercatori e con altre figure non industriali. La regolamentazione dovrebbe evitare di avallare metodi ristretti di valutazione e controllo per evitare che ciò si traduca in un superficiale esercizio di spunta delle caselle.

Un precedente a livello globale

Secondo Mehtab Khan, firmataria e resident fellow, oltre che responsabile dell’Iniziativa Yale/Wikimedia sugli intermediari e l’informazione, la normativa dovrebbe considerare le modalità di sviluppo dell’IA, compresa la raccolta dei dati, i soggetti coinvolti in tale raccolta e nella formazione della tecnologia e altro ancora. Kahn ha sostenuto che semplici etichette che indicano alto e basso rischio “non riescono a cogliere in modo adeguato il dinamismo” della tecnologia.

“Allo stato delle cose, la legge europea sull’intelligenza artificiale è destinata a diventare la prima normativa omnicomprensiva sull’intelligenza artificiale – ha aggiunto Sarah Myers West, direttore generale dell’AI Now Institute, che ha contribuito alla stesura del documento – E se succederà, stabilirà un precedente a livello globale. Per questo è particolarmente importante che la legge disciplini bene questa categoria di AI: potrebbe infatti diventare un modello che altri potrebbero seguire”.