Claude cambia i termini d’uso: avete un mese per decidere se condividere le chat per il training

Anthropic ha introdotto per gli utenti di Claude Free, Pro e Max un’importante modifica alla propria politica di gestione dei dati degli utenti. La novità riguarda soprattutto la durata di conservazione delle conversazioni e l’utilizzo dei contenuti per l’addestramento dei modelli di intelligenza artificiale, una scelta che ha già suscitato discussioni tra gli abbonati ai diversi piani del servizio.
Finora, le chat degli utenti venivano conservate per un massimo di 30 giorni, salvo cancellazione manuale da parte dell’utente stesso. Con la nuova policy, invece, Anthropic introduce un meccanismo di opt-in che amplia la finestra temporale in modo drastico. Chi accetterà la funzione “Help improve Claude”, permetterà all’azienda di archiviare le conversazioni fino a 1.826 giorni, ovvero cinque anni. In questo arco di tempo, i dati potranno essere utilizzati per migliorare i modelli linguistici e per perfezionare i sistemi di sicurezza.
Gli utenti avranno a disposizione un popup di conferma. Chi già utilizza Claude, potrà decidere se aderire o meno, mentre i nuovi iscritti saranno chiamati a fare la stessa scelta durante la procedura di configurazione dell’app. Chi invece preferirà non contribuire all’addestramento dei modelli, vedrà comunque le proprie chat conservate per 30 giorni come accadeva in precedenza. Resta ferma la possibilità di eliminare manualmente le conversazioni e, una volta cancellate, queste non saranno conservate da Anthropic.
Tuttavia, esistono delle eccezioni. Se un contenuto viene segnalato come potenzialmente pericoloso o illecito, potrà essere archiviato fino a sette anni. L’azienda ha citato come esempio discussioni riguardanti la costruzione di armi nucleari, un tema che rientra nei casi sensibili e che richiede una gestione più stringente.
Nessuna eccezione per gli abbonati Pro e Max
Un aspetto che ha sollevato critiche tra gli utenti riguarda i piani a pagamento. Attualmente, gli abbonamenti Claude Pro e Claude Max offrono accesso a funzionalità avanzate, ma non prevedono alcuna esclusione dalla nuova politica di raccolta dati. In altre parole, anche gli utenti paganti si troveranno davanti alla stessa scelta, ovvero se contribuire all’addestramento del modello consentendo un’archiviazione quinquennale delle chat o limitarsi alla conservazione per 30 giorni.
Al contrario, Anthropic ha chiarito che la nuova regola non si applicherà ai clienti commerciali, educational o governativi, né all’uso tramite API integrate con partner come Amazon Bedrock o Google Cloud Vertex AI. Una distinzione che appare significativa, considerando che la società è attualmente in corsa per un contratto con la US General Services Administration (GSA), volto a portare l’intelligenza artificiale all’interno dei sistemi governativi americani e a ridurre l’onere di lavoro umano nei rapporti con i cittadini.
Sicurezza e rischi di abuso
Anthropic ha giustificato l’estensione della durata di conservazione con la necessità di migliorare lo sviluppo del modello e potenziare i meccanismi di sicurezza. Tuttavia, il tema della protezione dei dati resta delicato. La stessa azienda ha ammesso che criminali informatici hanno tentato di sfruttare Claude per attività malevole, tra cui intrusioni informatiche e frodi legate al lavoro da remoto.
In un caso specifico, Anthropic ha dichiarato di aver bloccato un tentativo proveniente dalla Corea del Nord di impiegare l’IA per scopi illeciti. Anche per episodi come questo l’azienda assicura di essere costantemente vigile e pronta a contrastare nuovi abusi.