Sebbene gli Stati Uniti e la Cina siano rivali agguerriti nel commercio di tecnologia, sembrano avere qualcosa di nuovo in comune: le preoccupazioni per la responsabilità e il possibile uso improprio dell’IA generativa. Martedì scorso, i governi di entrambi i Paesi hanno infatti pubblicato annunci relativi a regolamenti per lo sviluppo dell’IA. La National Telecommunications and Information Administration (NTIA), un ramo del Dipartimento del Commercio degli Stati Uniti, ha pubblicato una richiesta pubblica formale di input sulle politiche che dovrebbero dare forma a un ecosistema di responsabilità dell’IA.

Tra queste, le questioni relative all’accesso ai dati, alla misurazione della responsabilità e al modo in cui gli approcci all’IA potrebbero variare in diversi settori industriali, come l’occupazione o l’assistenza sanitaria. I commenti scritti in risposta alla richiesta devono essere inviati all’NTIA entro il 10 giugno 2023, 60 giorni dalla data di pubblicazione nel Registro Federale. La notizia arriva nello stesso giorno in cui la Cyberspace Administration of China (CAC) ha presentato una serie di bozze di misure per la gestione dei servizi di IA generativa, tra cui quella di rendere i fornitori responsabili della validità dei dati utilizzati per addestrare gli strumenti di IA generativa.

La CAC ha dichiarato che i fornitori dovranno essere responsabili della validità dei dati utilizzati per addestrare gli strumenti di IA e che dovranno essere adottate misure per evitare discriminazioni nella progettazione di algoritmi e set di dati di addestramento. Le aziende dovranno inoltre presentare al governo delle valutazioni sulla sicurezza prima di lanciare i loro strumenti di IA al pubblico. Secondo la bozza di regolamento, se le loro piattaforme generano contenuti inappropriati, le aziende dovranno aggiornare la tecnologia entro tre mesi per evitare che contenuti simili vengano generati di nuovo. Il mancato rispetto delle regole comporterà per i fornitori multe, la sospensione dei servizi o indagini penali.

Qualsiasi contenuto generato dall’IA generativa deve essere in linea con i valori socialisti fondamentali del Paese, ha dichiarato la CAC, il cui annuncio è stato pubblicato nello stesso giorno in cui Alibaba Cloud ha annunciato un nuovo modello LLM chiamato Tongyi Qianwen, che verrà introdotto come front-end in stile ChatGPT in tutte le sue applicazioni aziendali. Il mese scorso, un altro gigante cinese dei servizi internet e dell’AI, Baidu, ha annunciato un’alternativa a ChatGPT in lingua cinese chiamata Ernie bot.

intelligenza artificiale

Regolamentazione dell’IA e innovazione

Mentre il governo cinese ha definito una chiara serie di linee guida normative, altri governi in tutto il mondo stanno adottando un approccio diverso. Il mese scorso, il governo del Regno Unito ha dichiarato che, per “evitare una legislazione troppo restrittiva che potrebbe soffocare l’innovazione”, ha scelto di non affidare la responsabilità della governance dell’IA a un nuovo ente regolatore unico, invitando invece gli enti regolatori esistenti a elaborare approcci propri che si adattino al meglio al modo in cui l’IA viene utilizzata nei loro settori.

Tuttavia, questo approccio è stato criticato da alcuni. Gli esperti del settore sostengono che i quadri normativi esistenti potrebbero non essere in grado di regolamentare efficacemente l’IA a causa della natura complessa e multilivello di alcuni strumenti di IA, il che significa che sarà inevitabile la confusione tra diversi regimi. Inoltre, l’autorità di regolamentazione dei dati del Regno Unito ha lanciato un avvertimento alle aziende tecnologiche sulla protezione dei dati personali quando sviluppano e utilizzano modelli di IA generativi e in linguaggio esteso, mentre l’autorità di regolamentazione della privacy italiana ha vietato ChatGPT per presunte violazioni della privacy. Un gruppo di 1.100 leader tecnologici e scienziati ha inoltre chiesto una pausa di sei mesi per lo sviluppo di sistemi più potenti di GPT-4.

Quando si tratta di innovazione tecnologica e regolamentazione, c’è un certo percorso naturale che la maggior parte dei governi o dei legislatori segue, ha affermato Frank Buytendijk, analista di Gartner. “Quando c’è una nuova tecnologia sul mercato, impariamo a usarla in modo responsabile commettendo degli errori. Questo è il punto in cui ci troviamo ora con l’IA”.