OpenAI, l’azienda partecipata anche da Microsoft e produttrice del rivoluzionario sistema di intelligenza artificiale generativa ChatGPT, ha annunciato questa settimana che permetterà agli utenti di disattivare la funzione di cronologia delle chat. La mossa viene vista come una risposta parziale a regolatori e aziende preoccupate per la sicurezza dei dati forniti dagli utenti a ChatGPT.

Oltre a evitare che le conversazioni rimangano accessibili nella parte sinistra della finestra dell’applicazione, la funzione Cronologia disabilitata permette anche di evitare che le conversazioni vengano usate per addestrare versioni successive del modello linguistico. Saranno comunque memorizzate sui server dell’azienda, ma verranno esaminate solo in caso sia necessario indagare eventuali abusi e saranno cancellate dopo 30 giorni.

“Speriamo che questo offra un modo più semplice per permettere agli utenti di gestire i propri dati, rispetto al nostro attuale processo di opt-out”, ha dichiarato l’azienda in un post sul blog ufficiale. È importante notare che fino a oggi il fatto che i testi delle conversazioni avrebbero potuto essere usati nell’addestramento del modello non era evidenziato nell’utilizzo dell’applicazione o nell’informativa privacy, ma solo nella FAQ di ChatGPT.

OpenAI ha anche detto che l’azienda sta lavorando a un nuovo modello di abbonamento chiamato ChatGPT Business, diverso da ChatGPT Plus e rivolto agli utenti aziendali, che potrebbero aver bisogno di un maggiore controllo sull’utilizzo dei propri dati. ChatGPT Business si atterrà alle politiche di utilizzo dei dati delle API dell’azienda, il che significa che i dati degli utenti non saranno, di default, utilizzati per l’addestramento dei modelli. OpenAI ha detto che spera di presentare questo modello di abbonamento “nei prossimi mesi”.

I regolatori puntano i riflettori su OpenAI

La notizia arriva sulla scia di una mossa del Board europeo per la protezione dei dati personali, che all’inizio del mese ha istituito un comitato di indagine su ChatGPT, anche a seguito del procedimento del Garante Privacy italiano che ha portato all’autosospensione di ChatGPT nel nostro Paese.

Queste misure messe in piedi da OpenAI, per quanto necessarie e benvenute, non bastano però a soddisfare tutte le richieste che il Garante italiano ha fatto all’azienda, anche perché una di esse – la possibilità per qualsiasi persona di chiedere a OpenAI di rettificare un’informazione personale errata – è  impossibile da soddisfare (qui spieghiamo il perché).

È chiaro che la privacy e la governance dei dati non erano tra le priorità di OpenAI, secondo il Vicepresidente e analista di Gartner Nader Henein, che fa notare che questo tipo di comportamento non è nuovo tra le startup focalizzate unicamente sul lancio di un prodotto funzionante sul mercato. La filosofia di Facebook “Move fast and break things” (Muoviti veloce e rompi cose) evidenzia bene questo tipo di atteggiamento.

“Stanno continuando a costruire l’aereo in volo –  ha detto Henein – e immagino che gran parte del lavoro di sviluppo che Microsoft sta facendo su Copilot sia focalizzata nel cercare di inserire quei principi di governance e richiesti da aziende e regolatori nel large language model di OpenAI”.

“È un passo nella giusta direzione – ha aggiunto – ma evidenzia che la privacy non è stata presa in considerazione durante le fasi iniziali della progettazione di ChatGPT, ma inserita solo in un secondo momento, come un ripensamento. Non ho dubbi che il team di OpenAI stia lavorando febbrilmente per adattare la governance alla loro architettura – ha dichiarato – ma bisogna capire quanto sia possibile farlo a posteriori”.