La battaglia legale che vede protagonisti Anthropic e migliaia di autori statunitensi ha vissuto un nuovo colpo di scena. Il giudice federale William Alsup ha infatti respinto l’accordo da 1,5 miliardi di dollari che Anthropic aveva raggiunto per chiudere la causa legata all’uso illecito di opere protette da copyright nell’addestramento dei suoi modelli linguistici Claude. Un’intesa che, se fosse stata approvata, avrebbe rappresentato il risarcimento più alto mai registrato in un contenzioso per violazione del diritto d’autore.

Secondo quanto riportato da Bloomberg Law, Alsup ha espresso forti perplessità sulle modalità con cui l’accordo è stato costruito. In particolare, ha definito l’intesa “lontana dall’essere completa” e ha criticato i legali degli autori, accusandoli di aver lasciato questioni fondamentali irrisolte. Il giudice ha parlato senza mezzi termini di un accordo che rischiava di essere imposto a forza agli scrittori, senza garantire loro piena trasparenza né strumenti adeguati per decidere se accettare o meno le condizioni.

Il nodo centrale riguarda la gestione della class action, che coinvolge circa 500.000 autori. L’accordo prevedeva un risarcimento di 3.000 dollari per ogni opera utilizzata senza autorizzazione da Anthropic per l’addestramento dei suoi LLM. Una cifra che, almeno sulla carta, avrebbe reso questo accordo una pietra miliare nel dibattito sul copyright nell’era dell’IA. Tuttavia, Alsup ha sottolineato come mancassero elementi fondamentali come l’elenco delle opere coinvolte, la lista completa degli autori, le modalità di notifica ai potenziali beneficiari e il modulo di richiesta per accedere al risarcimento.

Il timore del giudice è che, una volta fissata la somma globale, i legali della class action possano smettere di preoccuparsi degli autori, lasciando a questi ultimi l’onere di orientarsi in un processo burocratico complesso. “In molti casi come questi, chi partecipa alla class action finisce per essere penalizzato, mentre i legali ottengono la loro parte”, ha spiegato Alsup. Da qui la richiesta esplicita che i rappresentanti degli autori dovranno fornire una comunicazione molto chiara ai propri assistiti, garantendo loro la possibilità di aderire o rifiutare l’accordo con piena consapevolezza.

Anthropic Guillaume Princen

Crediti: Shutterstock

Un altro punto critico è la necessità di evitare che Anthropic possa essere nuovamente citata in giudizio per le stesse accuse. L’accordo dovrà includere una clausola che chiuda definitivamente la vicenda, ma senza compromettere i diritti degli autori che non intendono aderire. Per questo Alsup ha fissato scadenze precise: entro il 15 settembre i legali dovranno presentare una lista completa delle opere contestate, mentre entro il 10 ottobre il tribunale esaminerà e approverà, se conforme, la documentazione finale. Solo allora il giudice potrà concedere un’approvazione preliminare dell’accordo.

La vicenda si inserisce in un contesto più ampio che riguarda l’intero settore dell’intelligenza artificiale. Negli ultimi mesi, infatti, grandi aziende come OpenAI, Meta e Google sono state accusate di aver utilizzato enormi quantità di contenuti protetti da copyright (libri, articoli, sceneggiature, canzoni) per alimentare i propri modelli linguistici senza ottenere autorizzazioni né corrispondere compensi. Per gli autori, questo equivale a una forma di pirateria digitale che mette a rischio non solo i loro guadagni, ma anche il valore stesso della produzione creativa.

Non sorprende quindi che la causa contro Anthropic sia seguita con grande attenzione sia negli Stati Uniti sia in Europa, dove simili dibattiti sono in corso. La decisione del giudice Alsup mostra come i tribunali non siano disposti a convalidare accordi miliardari che non offrano garanzie concrete ai titolari dei diritti. Al tempo stesso, evidenzia quanto sia complesso trovare un equilibrio tra la necessità di proteggere la proprietà intellettuale e lo sviluppo di tecnologie emergenti, che si basano proprio sulla capacità di “imparare” da grandi quantità di dati.

Inutile sottolineare come per Anthropic la posta in gioco sia altissima. Accettare vincoli più stringenti potrebbe infatti rallentare i suoi piani di espansione, ma rifiutare compromessi rischia di incrinare la sua credibilità sul mercato e aprire la strada ad altre azioni legali.

(Immagine in apertura: Shutterstock)