“Ogni prodotto di ogni azienda sarà influenzato dal rapido sviluppo dell’AI generativa”. Lo ha affermato il Ceo di Google e Alphabet, Sundar Pichai, in un’intervista alla CBS. Pichai ha aggiunto che la società deve prepararsi a tecnologie come quelle che sono già state lanciate e che molto facilmente stravolgeranno alcune posizioni lavorative. Principalmente quelle dei “lavoratori della conoscenza”, come scrittori, contabili, architetti e, ironia della sorte, anche ingegneri del software.
Le nuove tecnologie avranno importanti impatti sia sui prodotti sia sulle aziende. “Pensiamo per esempio a un radiologo – ha ipotizzato Pichai – fra cinque o dieci anni potrà contare su un collaboratore basato su AI. Così, quando al mattino si troverà con un centinaio di radiografie da esaminare il suo aiutante potrebbe suggerirgli quali sono i casi più gravi che andrebbero esaminati per primi“.

Si amplia il rischio fake

Nell’avvertire delle possibili conseguenze dell’IA, Pichai ha affermato che la portata del problema della disinformazione e delle notizie e immagini fake sarà “molto più ampia di quanto non sia oggi e potrebbe causare gravi danni”.

Ricordiamo che nel mese di marzo Google ha lanciato il suo chatbot IA Bard come prodotto sperimentale per il pubblico. Ha seguito l’annuncio di Microsoft di gennaio, che ha annunciato che il suo motore di ricerca Bing avrebbe incluso la tecnologia GPT di OpenAI, che ha suscitato grande interesse a livello globale dopo il lancio di ChatGPT nel 2022.

Tuttavia, nelle ultime settimane si sono diffusi diversi timori per le conseguenze dei rapidi progressi ottenuti. A marzo, decine di accademici e alcuni imprenditori, tra cui Steve Wozniak ed Elon Musk, hanno chiesto una pausa di 6 mesi nell’addestramento di modelli linguistici di grandi dimensioni “più potenti di GPT-4”, il Large Language Model (LLM) di OpenAI. Da allora oltre 25.000 persone hanno firmato la lettera, costringendo il CEO di OpenAI, Sam Altman a intervenire in prima persona per rassicurare in merito alle preoccupazioni sull’eventuale sviluppo di GPT-5. Altman ha affermato che una nuova generazione di LLM non è in fase di sviluppo e non lo sarà per parecchio tempo. Il CEO Di OpenAI ha colto l’occasione per ricordare che “prima c’è una serie di problemi di sicurezza che è importante affrontare”.

Intanto Musk pensa a sviluppare un suo LLM

Per altro, va sottolineato che, pur essendo tra i firmatari della lettera che chiede una moratoria nello sviluppo dell’AI generativa, Elon Musk ha nel contempo avviato la società X.AI che avrebbe come obiettivo proprio di costruire un large language model simile a quelli di OpenAi e Google. E il recente acquisto di 10.000 GPU servirebbe proprio a tale scopo. Sembrerebbe che, più che per fare delle riflessioni sulla tecnologia, i 6 mesi di blocco Musk li voglia per non perdere troppo terreno rispetto alla concorrenza.

Fondamentale creare regole in tempi rapidi

Google ha lanciato un documento che delinea le raccomandazioni per la regolamentazione dell’AI, ma secondo Pichai la società deve adattarsi rapidamente con norme e leggi per punire gli abusi. Inoltre, è necessario definire trattati tra le nazioni per rendere l’AI sicura a livello globale e regole che “si allineino con i valori umani, compresa la moralità – ha sostenuto Pichai – non spetta più solo a un’azienda decidere. Penso che lo sviluppo dell’AI generativa non debba includere solo ingegneri, ma anche scienziati sociali, etici, filosofi e così via”.

Quando gli è stato chiesto se la società è pronta ad accogliere la tecnologia AI come Bard, Pichai ha risposto: “Da un lato credo di no, perché il ritmo con cui riusciamo a pensare e ad adattarci come istituzioni sociali non sembra in grado di stare al passo con la velocità con cui la tecnologia sta evolvendo”. Tuttavia, Pichai si è detto ottimista perché, rispetto ad altre tecnologie del passato, un elevato numero di persone ha iniziato a preoccuparsi delle implicazioni prima di quanto non è stato fatto in precedenza”.

I timori della Cyberspace Administration of China

Tra chi esprime grande preoccupazione c’è anche l’autorità di regolamentazione digitale cinese, che ha proposto nuove linee guida che vietano agli LLM come ChatGPT di diffondere contenuti ritenuti in grado di sovvertire il potere dello Stato o di sostenere il rovesciamento del sistema politico comunista del Paese. Secondo alcuni esperti, come riporta Gizmodo, le nuove linee guida rappresentano il segno più evidente della volontà delle autorità cinesi di estendere il proprio apparato di censura online al mondo emergente dell’IA generativa: il Great Firewall cinese ora circonda anche l’intelligenza artificiale.

“Il Partito utilizzerà le nuove linee guida sull’intelligenza artificiale generativa per svolgere la stessa funzione di censura, sorveglianza e manipolazione delle informazioni che ha cercato di giustificare con altre leggi e regolamenti”, ha dichiarato a Gizmodo Michael Caster, responsabile del programma digitale per l’Asia di Article 19, un’organizzazione per i diritti umani che si occupa di libertà di espressione online.

La bozza di linee guida, pubblicata dalla Cyberspace Administration of China, arriva a ridosso dei nuovi prodotti di IA generativa di Baidu, Alibaba e altri giganti tecnologici cinesi. Gli sviluppatori di IA che intendono operare in Cina dovranno sottoporre i loro prodotti a una verifica di sicurezza governativa prima di renderli pubblici e garantire che tutti i contenuti generati dall’IA siano chiaramente etichettati. I chatbot dovranno verificare l’identità degli utenti e i loro creatori saranno obbligati a garantire che i contenuti serviti dall’IA siano veritieri – finora un grosso problema per le loro controparti americane – e non discriminino la razza, l’etnia, le convinzioni, il Paese, la regione o il sesso degli utenti.

Mentre la maggior parte di queste salvaguardie appare in linea con le richieste degli esperti di sicurezza dell’IA di altri Paesi, le linee guida divergono nettamente sulla questione dei contenuti politici potenzialmente sovversivi. Su questa questione, la Cina vuole imporre misure rigorose, in gran parte in linea con le sue attuali politiche di moderazione del discorso sui social media.
Yaqiu Wang, ricercatrice senior di Human Rights Watch per la Cina, ha dichiarato che queste regole severe, pur essendo nuove, “erano attese. Tuttavia, anche senza, i funzionari del governo cinese possono fare la stessa cosa. Le linee guida sono solo un comodo strumento a cui fare riferimento. Wang concorda con la valutazione di Caster, sostenendo che è sicuramente plausibile che le autorità cinesi possano usare il testo della nuova bozza di regole sull’IA per colpire discorsi pacifici e “assolutamente legittimi”.