Alcuni dipendenti di aziende leader nel settore dell’intelligenza artificiale stanno lanciando un allarme sui gravi rischi di sicurezza posti dalla rapidissima evoluzione di questa tecnologia. In una lettera pubblicata ieri, circa 13 tra ex e attuali dipendenti di OpenAI, Google DeepMind e Anthropic hanno scritto che le aziende di IA mancano di supervisione e trasparenza.

Il loro intervento invita le aziende che producono tecnologie di intelligenza artificiale all’avanguardia a rafforzare le tutele per gli informatori e a creare culture che incoraggino le critiche. La lettera è stata sottoscritta dai cosiddetti “padrini” dell’IA Yoshua Bengio e Geoffrey Hinton e dallo scienziato informatico Stuart Russell, che hanno contribuito alla ricerca strumentale che ha portato alla creazione dell’IA moderna e sono poi diventati alcuni dei suoi maggiori critici.

La lettera arriva tra l’altro in un periodo “caldo” per l’IA. Da un lato alcune settimane fa OpenAI ha chiuso il “superalignment team” (che doveva supervisionare la sicurezza) dopo le dimissioni dei suoi capi (team ora rimpiazzato dal CEO Sam Altman e altri componenti del consiglio di amministrazione). Inoltre, secondo uno dei firmatari della lettera (il ricercatore Daniel Kokotajlo), la probabilità che la IA danneggi seriamente l’umanità è del 70%.

Di seguito riportiamo il testo integrale della lettera:

Siamo dipendenti, attuali e passati, di aziende di frontiera nel settore dell’IA e crediamo nel potenziale di questa tecnologia di fornire benefici senza precedenti all’umanità.

Siamo però anche consapevoli dei gravi rischi posti da queste tecnologie. Tali rischi vanno dall’ulteriore rafforzamento delle disuguaglianze esistenti, alla manipolazione e alla disinformazione, fino alla perdita di controllo dei sistemi autonomi di IA che potrebbero portare all’estinzione umana. Le stesse aziende di IA hanno riconosciuto questi rischi, così come i governi di tutto il mondo e altri esperti di IA.

intelligenza artificiale stipendio

Speriamo che questi rischi possano essere adeguatamente mitigati con una guida sufficiente da parte della comunità scientifica, dei politici e del pubblico. Tuttavia, le aziende di IA hanno forti incentivi finanziari per evitare una supervisione efficace e non crediamo che le strutture di corporate governance su misura siano sufficienti a cambiare questa situazione.

Le aziende di IA possiedono informazioni sostanziali non pubbliche sulle capacità e sui limiti dei loro sistemi, sull’adeguatezza delle loro misure di protezione e sui livelli di rischio di diversi tipi di danni. Tuttavia, attualmente hanno l’obbligo di condividere solo alcune di queste informazioni con i governi e nessuna con la società civile. Non crediamo che si possa fare affidamento sul fatto che tutti condividano volontariamente tali informazioni.

Finché non ci sarà un’efficace supervisione governativa di queste aziende, gli attuali e gli ex dipendenti sono tra le poche persone che possono ritenerle responsabili di fronte al pubblico. Tuttavia, ampi accordi di riservatezza ci impediscono di esprimere le nostre preoccupazioni, tranne che a quelle stesse aziende che potrebbero non affrontare questi problemi.

Chiediamo quindi alle aziende di IA avanzata di impegnarsi a rispettare questi principi:

  • L’azienda non stipulerà o applicherà alcun accordo che vieti la “denigrazione” o la critica dell’azienda per problemi legati al rischio, né si vendicherà per le critiche legate al rischio ostacolando qualsiasi beneficio economico acquisito
  • L’azienda faciliterà un processo anonimo e verificabile per i dipendenti attuali e gli ex dipendenti per sollevare preoccupazioni relative ai rischi dell’IA al consiglio di amministrazione dell’azienda, alle autorità di regolamentazione e a un’organizzazione indipendente appropriata con competenze pertinenti
  • L’azienda sosterrà una cultura di critica aperta e consentirà ai suoi dipendenti attuali ed ex dipendenti di sollevare dubbi sui rischi relativi alle sue tecnologie al pubblico, al consiglio di amministrazione dell’azienda, alle autorità di regolamentazione o a un’organizzazione indipendente appropriata con competenze pertinenti, a condizione che i segreti commerciali e altri interessi di proprietà intellettuale siano adeguatamente protetti
  • L’azienda non si ritorcerà contro gli attuali e gli ex dipendenti che condividono pubblicamente informazioni riservate relative ai rischi dopo che altre procedure sono fallite. Accettiamo che qualsiasi sforzo per segnalare preoccupazioni relative ai rischi debba evitare di divulgare inutilmente informazioni riservate. Pertanto, una volta che esista un processo adeguato per la segnalazione anonima delle preoccupazioni al consiglio di amministrazione dell’azienda, alle autorità di regolamentazione e a un’appropriata organizzazione indipendente con competenze rilevanti, accettiamo che le preoccupazioni vengano inizialmente sollevate attraverso tale processo. Tuttavia, fino a quando non esisterà tale procedura, i dipendenti attuali e gli ex dipendenti dovranno mantenere la libertà di riferire le proprie preoccupazioni al pubblico