Nel tentativo di limitare il potenziale distruttivo dell’IA, un documento dell’Università di Cambridge, a cui hanno collaborato numerose istituzioni accademiche e OpenAI, propone di inserire nell’hardware che la alimenta switch e blocchi remoti, come quelli sviluppati per impedire il lancio non autorizzato di armi nucleari.

Il concetto chiave espresso è che la regolamentazione dell’hardware su cui si basano i modelli di intelligenza artificiale potrebbe essere il modo migliore per impedirne l’uso improprio. “Il calcolo rilevante per l’IA è un punto di intervento particolarmente efficace: è rilevabile, escludibile e quantificabile ed è prodotto attraverso una catena di fornitura estremamente concentrata”, sostengono i ricercatori.

L’addestramento degli LLM più potenti, che si ritiene superino i mille miliardi di parametri, richiede un’infrastruttura fisica a dir poco ciclopica tra decine di migliaia di GPU o acceleratori e settimane o addirittura mesi di tempo di elaborazione. Questo, secondo i ricercatori, rende difficile nascondere l’esistenza e le prestazioni relative di queste risorse, senza dimenticare che i chip più avanzati per addestrare questi modelli sono prodotti da un numero relativamente ristretto di aziende come Nvidia, AMD e Intel. Ciò consentirebbe ai responsabili politici di limitare la vendita di questi prodotti ad aziende o Paesi che destano preoccupazione.

Questo tipo di visibilità, secondo i ricercatori, è preziosa in quanto potrebbe contribuire a evitare un’altra corsa agli “armamenti” (in questo caso non missili ma hardware per l’IA), ma al tempo stesso pone questioni non banali sulla privacy dei clienti e sul rischio di far trapelare dati sensibili.

limitare ia

I ricercatori hanno inoltre proposto l’implementazione di un registro globale per le vendite di chip per l’intelligenza artificiale che ne tracci il ciclo di vita, anche dopo che hanno lasciato il Paese di origine. Questo registro potrebbe integrare un identificatore univoco in ogni chip, che potrebbe aiutare a combattere il contrabbando di componenti (azione “difensiva” soprattutto nei confronti della Cina).

“In situazioni in cui i sistemi di IA pongono rischi catastrofici, potrebbe essere vantaggioso per le autorità di regolamentazione verificare che un insieme di chip di IA venga utilizzato legittimamente o disabilitarne il funzionamento (o un sottoinsieme di esso) se vengono violate le regole. I co-processori specializzati che si trovano sul chip potrebbero essere in possesso di un “certificato” digitale firmato crittograficamente e gli aggiornamenti della politica di utilizzo potrebbero essere forniti a distanza tramite aggiornamenti del firmware. L’autorizzazione per la licenza on-chip potrebbe essere rinnovata periodicamente da un ente regolatore e una licenza scaduta o illegittima potrebbe causare il mancato funzionamento del chip o ridurne le prestazioni”, si legge nel documento.

I ricercatori però avvertono che questo approccio non è privo di rischi. Se implementato in modo non corretto, un “kill switch” di questo tipo potrebbe infatti diventare un bersaglio da sfruttare per i criminali informatici. Il documento sottolinea infine che gli sforzi per prevenire l’uso improprio dei modelli IA si sono dimostrati inaffidabili, portando come esempio la facilità con cui alcuni ricercatori sono riusciti a smantellare le protezioni di Llama 2 (l’LLM di Meta), volte a impedire che il modello generasse un linguaggio offensivo. Anche su questo versante, quindi, c’è ancora molto da fare.