I modelli di IA generativa come ChatGPT sono così straordinariamente bravi che alcuni sostengono che le IA non solo sono uguali agli esseri umani, ma spesso anche più intelligenti. Sfornano bellissime opere d’arte in una vertiginosa gamma di stili, producono testi ricchi di dettagli, idee e conoscenze e tutto ciò che viene generato da queste intelligenze artificiali è così vario e apparentemente unico che è difficile credere che provenga da una macchina. Senza dimenticare che stiamo appena iniziando a scoprire tutto ciò che l’IA generativa può fare.

Ma non appena passa il senso di meraviglia e stupore, ci si iniziano a fare delle domande del tipo “dovremmo preoccuparci di questa IA?” e di seguito riportiamo 10 dei principali aspetti negativi (o comunque discutibili) legati all’intelligenza artificiale generativa.

Plagio

Quando i modelli di intelligenza artificiale generativa come DALL-E e ChatGPT creano, in realtà stanno solo creando nuovi modelli a partire dai milioni di esempi presenti nel loro set di addestramento. I risultati sono una sintesi “taglia e incolla” tratta da varie fonti, nota anche come plagio quando lo fanno gli esseri umani. Nonostante infatti le loro creazioni intelligenti continuino a stupire (e molto spesso è difficile distinguere qualcosa creato da un’IA da un testo scritto da un essere umano), queste macchine non sono in grado di produrre nulla di veramente nuovo.

Copyright

Mentre il plagio è un problema che riguarda soprattutto le scuole, la legge sul copyright si applica al mercato. Quando un essere umano ruba dal lavoro di un altro, rischia di essere portato in tribunale e di dover pagare multe salatissime. Ma che dire delle IA? Si applicano le stesse regole?

La legge sul copyright è un argomento complicato e ci vorranno anni per definire lo status legale delle IA generative. Si potrebbe però supporre già ora che quando le IA inizieranno a produrre lavori talmente belli da mettere gli esseri umani sul lastrico, alcuni di loro passeranno sicuramente parecchio tempo a intentare cause legali.

Lavoro non retribuito

Il plagio e il copyright non sono le uniche questioni legali sollevate dall’IA generativa. Gli avvocati stanno già immaginando nuovi problemi etici per le cause legali. Ad esempio, un’azienda che produce un programma di disegno dovrebbe essere in grado di raccogliere dati sul comportamento dell’utente umano nel disegnare, per poi utilizzare i dati per l’addestramento dell’IA? Gli esseri umani dovrebbero essere compensati per questo utilizzo del lavoro creativo? Gran parte del successo dell’attuale generazione di IA deriva dall’accesso ai dati. Quindi, cosa succede quando le persone che generano i dati vogliono una fetta dei ricavi? Cosa è giusto fare? Cosa sarà considerato legale?

Chatgpt,Chat,With,Ai,Or,Artificial,Intelligence,Technology.,Businessman,Using

L’informazione non è conoscenza

Le IA sono particolarmente brave a imitare il tipo di intelligenza che gli esseri umani impiegano anni a sviluppare. Quando uno studioso umano è in grado di presentare un oscuro artista del XVII secolo o di scrivere nuova musica in una struttura tonale rinascimentale quasi dimenticata, abbiamo buone ragioni per essere impressionati e sappiamo che ci sono voluti anni di studio per sviluppare una conoscenza così approfondita. Quando un’intelligenza artificiale fa le stesse cose con solo pochi mesi di addestramento, i risultati possono essere sorprendentemente precisi e corretti, ma manca qualcosa.

Le IA possono sembrare in grado di imitare il lato giocoso e imprevedibile della creatività umana, ma in realtà non ci riescono. L’imprevedibilità, invece, è il motore dell’innovazione creativa. Industrie come quella della moda non solo sono assuefatte al cambiamento, ma lo definiscono. L’intelligenza artificiale ha sicuramente tantissime capacità (molte delle quali ancora inespresse), ma la buona vecchia intelligenza umana continuerà a essere qualcosa di unico e di non replicabile.

Stagnazione intellettuale

Parlando di intelligenza, le IA sono intrinsecamente meccaniche e basate su regole. Una volta che un’IA analizza una serie di dati di addestramento, crea un modello che non cambia mai. Alcuni ingegneri e scienziati dei dati immaginano di riqualificare gradualmente i modelli di IA nel corso del tempo, in modo che le macchine possano imparare ad adattarsi, ma in generale l’idea è quella di creare un insieme complesso di neuroni che codifichino determinate conoscenze in una forma fissa.

Questo approccio ha sicuramente dei vantaggi e può funzionare per alcuni settori, ma il pericolo dell’IA è che rimanga per sempre bloccata nello Zeitgeist dei suoi dati di addestramento. Cosa succederà quando noi umani diventeremo così dipendenti dall’IA generativa da non poter più produrre nuovo materiale per l’addestramento dei modelli?

Privacy e sicurezza

I dati per l’addestramento delle IA devono provenire da qualche parte e non siamo sempre sicuri di cosa venga inserito nelle reti neurali. Cosa succederebbe se le IA facessero trapelare informazioni personali dai loro dati di addestramento? Come se non bastasse, bloccare le IA è molto più difficile perché sono state progettate per essere molto flessibili.

Un database relazionale può limitare l’accesso a una particolare tabella con informazioni personali. Un’intelligenza artificiale, invece, può essere interrogata in decine di modi diversi. Gli aggressori impareranno rapidamente a porre le domande giuste e nel modo giusto per ottenere i dati sensibili che desiderano. Insegnare a un’IA a proteggere i dati privati è qualcosa che non abbiamo ancora imparato a fare.

Pregiudizi non rilevati

Già i primi programmatori di mainframe avevano capito il nocciolo del problema dei computer quando avevano coniato l’acronimo GIGO o “garbage in, garbage out”. Molti dei problemi delle IA derivano da dati di addestramento inadeguati. Se il set di dati è impreciso o distorto, i risultati andranno di pari passo.

L’hardware alla base dell’IA generativa può essere logico come Spock, ma gli esseri umani che costruiscono e addestrano le macchine non lo sono. È stato dimostrato che le opinioni pregiudiziali e la partigianeria trovano spazio nei modelli di IA. Forse qualcuno ha usato dati distorti per creare il modello. Forse sono state aggiunte delle opzioni per impedire al modello di rispondere a particolari domande scottanti. Forse sono state inserite delle risposte precostituite, che poi diventano difficili da individuare. Fatto sta che gli esseri umani hanno trovato molti modi per far sì che le IA siano ottimi veicoli per le nostre nefaste convinzioni.

intelligenza artificiale generativa

La stupidità delle macchine

È facile perdonare ai modelli di IA gli errori commessi, perché fanno bene tante altre cose. È solo che molti di questi errori sono difficili da prevedere perché le IA pensano in modo diverso dagli esseri umani. Ad esempio, molti utenti di funzioni text-to-image hanno scoperto che le IA sbagliano cose piuttosto semplici, come contare. Gli esseri umani imparano l’aritmetica di base fin dalla scuola elementare e usano questa abilità in una grande varietà di modi.

Chiedete a un bambino di 10 anni di disegnare un polipo e quasi sicuramente si assicurerà che abbia otto zampe. Le versioni attuali delle IA tendono a fare i conti con gli usi astratti e contestuali della matematica. Questo potrebbe facilmente cambiare se i costruttori di modelli dedicassero un po’ di attenzione a questa lacuna, ma ce ne saranno altre. L’intelligenza delle macchine è diversa da quella umana e questo significa che anche la stupidità delle macchine sarà diversa.

La credulità umana

A volte, senza rendercene conto, noi umani tendiamo a colmare le lacune dell’intelligenza artificiale. Riempiamo le informazioni mancanti o interpoliamo le risposte. Se l’intelligenza artificiale ci dice che Enrico VIII era il re che uccideva le sue mogli, non lo mettiamo in dubbio perché non conosciamo la storia. Diamo per scontato che l’intelligenza artificiale sia corretta, anche perché se un’affermazione viene fatta con sicurezza, la mente umana tende solitamente ad accettarla come vera e corretta.

Il problema più difficile per i fruitori dell’intelligenza artificiale generativa è capire quando l’intelligenza artificiale si sbaglia. Le macchine non possono mentire come gli esseri umani, ma questo le rende ancora più pericolose. Possono produrre paragrafi di dati perfettamente accurati e poi deviare verso speculazioni o addirittura calunnie, senza che nessuno se ne accorga (o almeno, non subito). E se noi umani possiamo mostrare qualche “segno” esteriore quando bariamo, inganniamo o mentiamo, le intelligenze artificiali sono assolutamente imperscrutabili.

Abbondanza infinita

I contenuti digitali sono riproducibili all’infinito, il che ha già messo a dura prova molti dei modelli economici costruiti sulla scarsità. Le IA generative influenzeranno ancora di più questi modelli. Lasceranno senza lavoro alcuni scrittori e artisti, ma stravolgeranno anche molte delle regole economiche con cui tutti noi conviviamo. I contenuti supportati dagli annunci pubblicitari funzioneranno quando sia gli annunci, sia i contenuti potranno essere ricombinati e rigenerati all’infinito? La parte gratuita di Internet si trasformerà in un mondo di bot che cliccano sugli annunci nelle pagine web, tutti creati e riproducibili all’infinito da IA generative?

Un’abbondanza ottenuta così facilmente potrebbe minare tutti gli aspetti dell’economia come la conosciamo oggi. Le persone continueranno a pagare per gli NFT se possono essere copiati per sempre? Se fare arte diventa così facile, sarà ancora qualcosa di speciale come lo è oggi? Tutto potrebbe perdere valore quando tutto sarà dato per scontato?