Claude vieta l’uso di OpenClaw con gli abbonamenti, abbassa i limiti di utilizzo e sembra meno intelligente

Anthropic ha un problema che molte aziende si sognano: troppa domanda. Gestire una crescita esplosiva quando si offrono abbonamenti a tariffa fissa su modelli di intelligenza artificiale estremamente costosi da far girare è però un equilibrio delicato e, nelle ultime settimane, quell’equilibrio ha mostrato crepe evidenti. Il risultato è una serie di decisioni ravvicinate e improvvise, che hanno generato malcontento proprio in quella community di sviluppatori che ha contribuito in modo determinante alla popolarità di Claude.
Il nodo centrale è l’uso degli abbonamenti con strumenti di terze parti. Piattaforme come OpenClaw (un agente AI progettato per operare in modo autonomo 24 ore su 24) avevano trovato un modo particolarmente conveniente per accedere a Claude, sfruttando i piani in abbonamento che offrono una tariffa fissa mensile invece del pagamento per token tramite API. Il rapporto tra costo pagato e valore effettivo dei token consumati era diventato esageratamente sbilanciato, tanto che un abbonamento da 20 dollari mensili permetteva in alcuni casi di generare token dal valore di listino superiore ai 230 dollari (alcuni utenti riportavano rapporti ancora più estremi, fino a 36 volte il prezzo pagato).
Una policy che diventa enforcement
Anthropic aveva già messo per iscritto, a febbraio, che l’uso di strumenti di terze parti con gli abbonamenti non era consentito dai termini di servizio, ma passare da un avviso scritto a un’applicazione tecnica della regola è tutt’altra cosa. Dal 4 aprile 2026, qualsiasi utilizzo di Claude tramite tool esterni non rientra più nel piano mensile, ma scala direttamente dai crediti extra (quelli a pagamento aggiuntivo), svuotando così il portafoglio invece del plafond incluso nell’abbonamento.
Boris Cherny, responsabile di Claude Code, aveva anticipato la mossa il giorno precedente, spiegando che i sistemi di Anthropic sono ottimizzati per specifici pattern di utilizzo e che servire quanta più gente possibile con i modelli più intelligenti richiede di proteggere quella capacità. Un tentativo di ammorbidire il colpo è arrivato sotto forma di un mese di crediti extra in omaggio proporzionale al piano attivo, bundle di utilizzo aggiuntivo scontati del 30% e la possibilità di disdire con rimborso per chi non fosse soddisfatto.
Gli abbonamenti continuano a coprire l’utilizzo su Claude.ai, Claude Code e Cowork, mentre chi vuole continuare a usare Claude con strumenti esterni ha due strade: acquistare bundle di crediti extra oppure passare all’API, che non ha limiti di utilizzo ma si paga per ogni token consumato.
Disservizi e token che spariscono
Il tempismo non è stato dei migliori, visto che proprio in questi giorni Claude ha attraversato un periodo di instabilità. Il 6 aprile, tra le 15:00 e le 16:30 UTC, si sono registrati errori elevati sul login di Claude.ai e Claude Code con ripercussioni sulle conversazioni, sulla voice mode e su altre funzionalità. L’incidente si è risolto nel giro di un’ora e mezza, ma ha coinciso con un altro problema che stava già agitando la community: i token degli abbonamenti si esaurivano molto più in fretta del previsto.
Anthropic ha aperto una discussione su Reddit ammettendo di star investigando un bug che faceva consumare i limiti di utilizzo più rapidamente del normale, definendolo la priorità assoluta del team. I commenti degli utenti hanno dipinto uno scenario frustrante. Qualcuno ha segnalato di essere passato dal 59% al 100% di utilizzo con una singola risposta di una riga, mentre altri descrivevano sessioni di debug che bruciavano l’intero budget giornaliero in pochi minuti a causa di loop nel codice generato. Non certo un bug marginale per chi usa Claude Code come parte integrante del proprio workflow quotidiano.
A complicare ulteriormente il quadro, oltre a testimonianze di utenti che parlano di un Claude diventato improvvisamente più “stupido” (non ricorda le istruzioni e soffre di allucinazioni), a fine marzo Anthropic aveva già introdotto un meccanismo di throttling nelle ore di punta che fa consumare i token più velocemente durante i picchi di domanda. Una scelta comprensibile dal punto di vista ingegneristico, ma che sommata al bug sul conteggio e alla stretta sulle terze parti ha prodotto un effetto composto difficile da ignorare.
La pressione strutturale dietro le decisioni
C’è un contesto più ampio in cui leggere queste mosse. Anthropic sta lavorando verso una quotazione pubblica e la strada per arrivarci richiede di dimostrare che il modello di business è sostenibile. Vendere accesso a modelli di frontiera attraverso abbonamenti flat a chi li usa in modo intensivo tramite agenti autonomi è una strategia di acquisizione clienti che, nel breve periodo, genera volume ma non necessariamente margini. Mantenere quella dinamica mentre si scala verso la borsa sarebbe difficile da giustificare agli investitori.
Non è comunque una situazione esclusiva di Anthropic se pensiamo che a febbraio Google aveva adottato misure analoghe per limitare l’uso di Gemini CLI e Gemini Code Assist attraverso strumenti non autorizzati, citando violazioni esplicite dei termini di servizio. Un’ennesima dimostrazione di come, man mano che gli agenti AI diventano strumenti di lavoro reali e ad alto consumo, i provider siano costretti a ridisegnare i confini tra ciò che un abbonamento copre e ciò che invece richiede un contratto API.
A peggiorare le prospettive di capacità nel breve periodo, Bloomberg ha recentemente riportato che oltre la metà dei data center statunitensi previsti per il 2026 accumuleranno ritardi nell’apertura. Per Anthropic, che deve far fronte a una domanda in accelerazione su infrastrutture già sotto pressione, la scarsità di capacità computazionale è il vincolo strutturale attorno a cui l’azienda è costretta a ridisegnare, scelta dopo scelta, il proprio rapporto con gli sviluppatori.

