A partire dal 28 agosto 2025, Anthropic introdurrà nuovi limiti settimanali di utilizzo per Claude Code, il suo popolare assistente IA con funzioni di programmazione avanzate. L’obiettivo? Contenere l’uso eccessivo di Code da parte di una piccola fascia di utenti che, secondo l’azienda, lo esegue in modo continuativo 24 ore su 24, spesso in violazione delle politiche di utilizzo del servizio.

L’annuncio è stato comunicato ufficialmente da Anthropic tramite email inviata agli abbonati e in un post pubblicato su X, confermando l’arrivo dei limiti per tutti i piani a pagamento: Pro da 20 dollari/mese, Max da 100 dollari/mese e Max da 200 dollari/mese.

Uso improprio e rivendita: cosa ha portato ai nuovi limiti

Anthropic ha dichiarato che alcuni utenti non solo mantenevano attivi i modelli di Claude Code in background costante, ma condividevano gli account o rivendevano l’accesso ad altri, violando così le condizioni di utilizzo. Come risultato si sono verificati carichi anomali sui server e si è creato un impatto negativo sulla qualità del servizio per tutti gli altri clienti.

La nuova politica prevede l’introduzione di due limiti settimanali, che si sommano a quelli già esistenti ogni cinque ore. Uno dei due è un limite generale sull’uso complessivo dell’IA, mentre l’altro riguarda in particolare Claude Opus 4, il modello più potente e avanzato sviluppato da Anthropic.

Gli abbonati al piano Pro da 20 dollari al mese potranno utilizzare Claude Code con Sonnet 4 per circa 40–80 ore a settimana, mentre per chi ha il piano Max da 100 dollari le ore salgono a 140–280 su Sonnet 4 e 15–35 ore su Opus 4. Infine, chi sottoscrive il piano Max da 200 dollari potrà contare su 240–480 ore settimanali con Sonnet 4 e 24–40 ore con Opus 4.

Anche se l’azienda sostiene che il piano Max da 200 dollari offra 20 volte più utilizzo rispetto al Pro, dai dati appena comunicati il rapporto effettivo sembra più vicino a 6 volte, almeno in termini di ore su Claude Code. Non è escluso che il conteggio effettivo venga fatto sulla base di token elaborati o potenza computazionale, ma Anthropic non ha fornito dettagli tecnici aggiuntivi in merito.

Problemi di scalabilità e blackout frequenti

Negli ultimi mesi, Claude Code ha vissuto un picco di popolarità, ma questo successo sembra aver creato più di qualche problema di stabilità. La pagina di stato ufficiale di Anthropic segnala infatti almeno sette interruzioni parziali o totali del servizio solo nell’ultimo mese.

Secondo la portavoce dell’azienda Amie Rotherham, i nuovi limiti settimanali avranno comunque un impatto minimo sulla maggior parte degli utenti, dal momento che meno del 5% degli abbonati sarà toccato da queste restrizioni.

Anche altri fornitori di tool IA per sviluppatori hanno rivisto le proprie politiche di pricing. A giugno, ad esempio, Anysphere, azienda dietro il popolare tool Cursor, ha modificato i limiti del piano Pro da 20 dollari ricevendo però critiche per la scarsa trasparenza, tanto che dopo le lamentele degli utenti è arrivata una parziale marcia indietro. Un percorso simile è stato seguito anche da Replit, che nello stesso periodo ha aggiunto nuove fasce di prezzo per contenere l’abuso dei suoi servizi.

Pur introducendo limitazioni concrete, Anthropic rassicura gli utenti più esigenti. Nell’email inviata agli abbonati si legge infatti che l’azienda è impegnata a supportare casi d’uso ad alto consumo in futuro attraverso nuove opzioni o formule dedicate. Per ora, però, la priorità è stabilizzare il servizio e garantire accesso affidabile per la maggioranza degli utenti paganti.