Anthropic vieta OpenClaw dalle sottoscrizioni a Claude, impone la fatturazione API
AI News

Anthropic vieta OpenClaw dalle sottoscrizioni a Claude, impone la fatturazione API

4 min
04/04/2026
anthropicclaudeopenclawai-agents

Anthropic interrompe gli strumenti AI di terze parti dai piani di sottoscrizione

Anthropic ha improvvisamente modificato le regole di ingaggio per il suo popolare assistente di codifica AI Claude. In un'email ai sottoscrittori condivisa su Hacker News, la società ha annunciato che a partire dal 4 aprile 2026, alle 12 PM PT, le sottoscrizioni Claude Pro e Claude Max non copriranno più l'utilizzo tramite strumenti di terze parti come OpenClaw. Gli utenti devono ora abilitare un'opzione di fatturazione "utilizzo extra" a consumo oppure utilizzare una chiave API standard.

La politica, che Anthropic dichiara sarà applicata a tutti gli strumenti di terze parti a breve, segna un significativo cambio strategico. Essa colpisce direttamente gli strumenti che hanno sfruttato il modello di sottoscrizione di Claude per fornire capacità AI autonome o agentiche a una frazione del costo dell'utilizzo diretto dell'API. La società sta offrendo un credito una tantum pari al prezzo mensile di sottoscrizione e sconti sui pacchetti di utilizzo pre-acquistati fino al 30%.

La motivazione dichiarata: gestione della domanda e dell'infrastruttura

La motivazione ufficiale di Anthropic si concentra sulla gestione della capacità e sull'attenzione al prodotto. L'email afferma: "Abbiamo lavorato per gestire la domanda in generale, ma questi strumenti mettono a dura prova i nostri sistemi. La capacità è una risorsa che gestiamo con cura e dobbiamo dare priorità ai nostri clienti che utilizzano i nostri prodotti principali." Boris Cherny, capo di Claude Code presso Anthropic, ha spiegato su X che le sottoscrizioni "non erano state progettate per i modelli di utilizzo di questi strumenti di terze parti."

L'analisi tecnica di VentureBeat rileva che gli strumenti first-party di Anthropic come Claude Code e Claude Cowork sono "progettati per massimizzare i 'tassi di hit della cache dei prompt'—riutilizzando il testo precedentemente elaborato per risparmiare sui calcoli." Gli strumenti di terze parti, per loro natura, potrebbero non ottimizzare per questa efficienza, portando a costi più elevati per query per Anthropic. Ciò crea un disallineamento finanziario in cui gli utenti delle sottoscrizioni che eseguono agenti automatizzati potrebbero consumare risorse dal valore ben superiore alla loro tariffa mensile di $20-$200.

continua a leggere sotto...

Reazione degli utenti e della comunità: frustrazione e comprensione

La discussione su Hacker News rivela una comunità profondamente divisa. Molti utenti hanno espresso frustrazione, ritenendo che la mossa fosse un "bait-and-switch" o una restrizione ingiusta su come utilizzare le quote di token acquistate. Un utente ha lamentato: "Sto pagando una somma fissa al mese per una quantità fissa di token... e dovrei essere in grado di utilizzare questi token come voglio." Altri hanno sottolineato che gli utenti pesanti che raggiungono i loro limiti settimanali erano probabilmente non redditizi per Anthropic con il modello di sottoscrizione.

Un'analogia prevalente nel thread ha paragonato la situazione a un modello di business di tipo "all-you-can-eat". Come ha notato un commentatore: "Ognuno di loro vende eccessivamente la propria capacità. Gli utenti potenti che utilizzano i servizi molto sono sussidiati da quelli che non li utilizzano altrettanto." Gli utenti di OpenClaw, eseguendo agenti 24/7, rappresentano l'estremità più alta dell'utilizzo, sconvolgendo le ipotesi economiche del livello di sottoscrizione.

Il destino di OpenClaw e il panorama competitivo

Il momento è particolarmente notevole poiché il creatore di OpenClaw, Peter Steinberger, ha recentemente annunciato che stava entrando a far parte di OpenAI. Steinberger ha postato che lui e il membro del consiglio di amministrazione di OpenClaw, Dave Morin, "hanno cercato di convincere Anthropic" ma hanno ottenuto solo un ritardo di una settimana. Ha scherzato: "È divertente come i tempi coincidano, prima copiano alcune funzionalità popolari nel loro strumento chiuso, poi bloccano l'open source."

Questa mossa contrasta nettamente con la posizione di OpenAI. Come notato nella fonte TechCrunch, OpenAI ha "semiufficialmente benedetto l'utilizzo di strumenti di terze parti" e sostiene esplicitamente strumenti come OpenCode e OpenClaw per gli sviluppatori nel suo programma Codex per OSS. Questa divergenza evidenzia una più ampia biforcazione strategica: Anthropic sta rafforzando il controllo sul proprio ecosistema, mentre OpenAI sembra più accogliente nei confronti degli strumenti esterni, almeno per ora.

Implicazioni più ampie per il mercato degli agenti AI

Questo cambiamento di politica è un tremore che segnala potenziali cambiamenti sismici nel panorama commerciale dell'AI. Sottolinea la tensione fondamentale tra l'attrattiva delle sottoscrizioni a tariffa fissa, "all-you-can-use", e la realtà variabile e ad alto costo dell'esecuzione dell'inferenza AI di ultima generazione. Come nota l'analisi di MLQ.ai, una sottoscrizione Claude Max da $200 potrebbe facilmente rappresentare oltre $1.000 in utilizzo equivalente dell'API per un agente automatizzato.

La decisione costringe a una resa dei conti per gli sviluppatori e le startup che costruiscono su Claude. I progetti che si basano sul vantaggio del costo di sottoscrizione per i flussi di lavoro agentiche devono ora tenere conto di costi operativi significativamente più elevati tramite l'API. Ciò potrebbe accelerare una migrazione verso modelli alternativi, comprese opzioni open-source o concorrenti come Codex di OpenAI, che attualmente mantiene una politica più permissiva.

In ultima analisi, la mossa di Anthropic è una decisione aziendale pragmatica, seppur impopolare. Protegge i margini, gestisce la capacità GPU scarsa e rifocalizza le risorse sulle offerte dei prodotti principali. Tuttavia, rischia anche di alienare la comunità degli sviluppatori che è stata strumentale nell'esplorare le capacità di Claude e potrebbe spingere l'innovazione verso piattaforme più aperte o permissive. L'era degli agenti sussidiati e alimentati da modelli di frontiera sembra chiudersi, segnando una nuova fase di consolidamento consapevole dei costi nell'ecosistema degli strumenti AI.