Claude Opus 4.6 e Sonnet 4.6 portano 1M di contesto alla disponibilità generale ai prezzi standard
AI News

Claude Opus 4.6 e Sonnet 4.6 portano 1M di contesto alla disponibilità generale ai prezzi standard

5 min
14/03/2026
artificial-intelligenceclaude-aillmenterprise-ai

Claude infrange la barriera dei costi per il contesto lungo

Anthropic ha rimosso un ostacolo importante per l'adozione dell'AI aziendale. La finestra di contesto di 1 milione di token, precedentemente una funzionalità premium, è ora disponibile generalmente sia per Claude Opus 4.6 che per Sonnet 4.6 ai prezzi standard del modello. Ciò significa che gli sviluppatori e le aziende possono alimentare intere basi di codice, contratti legali lunghi o tracce di agenti complessi in Claude senza attivare un "costo premium per il contesto lungo".

I prezzi sono semplici: $5 per milione di token di input e $25 per milione di token di output per Opus 4.6, e $3/$15 per Sonnet 4.6. Criticamente, non c'è moltiplicatore. Una richiesta di 900.000 token viene fatturata alla stessa tariffa per token di una di 9.000 token. Questa struttura dei costi prevedibile è un cambiamento significativo rispetto ai modelli di prezzo a più livelli spesso visti con contesti estesi.

Insieme alla notizia sui prezzi, Anthropic ha anche ampliato i limiti dei media. Gli utenti possono ora caricare fino a 600 immagini o pagine PDF in una singola sessione, aumentando drasticamente il volume di dati multimodali che possono essere analizzati in una sola volta. Per gli utenti di Claude Code sui piani Max, Team e Enterprise, il contesto di 1M è ora incluso automaticamente per le sessioni di Opus 4.6.

Prestazioni che giustificano la scala

Una finestra di contesto massiccia è utile solo se il modello può utilizzarla effettivamente. Anthropic sta supportando questa versione con nuove rivendicazioni di benchmark progettate per dimostrare che la capacità di Claude di gestire contesti lunghi non è solo un trucco di marketing. Secondo la società, Opus 4.6 ottiene un punteggio del 78,3% nel benchmark MRCR v2, mentre Sonnet 4.6 ottiene un punteggio del 68,4% su GraphWalks BFS—entrambi alla lunghezza di 1M token.

Anthropic afferma che questi sono i punteggi più alti tra i modelli di frontiera a questa lunghezza di contesto. L'implicazione è chiara: Claude non sta solo *ricordando* di più; sta *ragionando* su spazi di informazioni vasti in modo più efficace. Questa capacità è la pietra angolare per i casi d'uso reali che l'azienda evidenzia.

L'impresa tecnica qui non è banale. Mantenere un'elevata precisione di richiamo e ragionamento su una sequenza così lunga è una sfida importante nell'architettura dei modelli linguistici di grandi dimensioni. Il successo qui suggerisce progressi nei meccanismi di attenzione e nelle tecniche di addestramento che impediscono il degrado delle prestazioni su contesti lunghi.

Impatto reale: dal codice alle aule di tribunale

Il post del blog è punteggiato di testimonianze di utenti aziendali, dipingendo un quadro chiaro dell'impatto pratico. Il tema comune è l'eliminazione dell'overhead di "gestione del contesto". Gli sviluppatori non devono più suddividere manualmente il codice, riassumere i passaggi precedenti o cancellare la memoria a metà task.

Una testimonianza di un utente che sfrutta Claude Code spiega il cambiamento nel flusso di lavoro. In precedenza, bruciare 100K+ token in ricerche attraverso Datadog, Braintrust e codice sorgente avrebbe attivato la compattazione, facendo scomparire i dettagli e portando a "circoli" di debug. Con 1M di contesto, l'intero ciclo di ricerca, ri-ricerca, aggregazione e proposta di correzione può avvenire in una singola finestra coerente.

I benefici si estendono ben oltre il software. Un'azienda di AI legale, Eve, ora utilizza di default il contesto di 1M perché "i problemi più difficili degli avvocati richiedono questo". Il sistema può incrociare un verbale di deposizione di 400 pagine o evidenziare collegamenti in un intero fascicolo di un caso in una sola sessione. Un altro utente nota che gli avvocati interni possono ora portare "cinque turni di un accordo di partnership di 100 pagine in una sola sessione", finalmente vedendo l'intero arco di una negoziazione senza dover passare da una versione all'altra.

continua a leggere sotto...

Ampliamento della frontiera delle applicazioni AI

Il contesto esteso abilita intere nuove classi di applicazioni agenziali e di ricerca. Una piattaforma di scoperta scientifica ha riferito che il contesto di 1M di Claude Opus 4.6 e i limiti di media ampliati hanno permesso ai loro sistemi agenziali di sintetizzare centinaia di articoli, prove e basi di codice in un solo passaggio, accelerando la ricerca fondamentale in fisica.

Per il monitoraggio dei sistemi di produzione, un utente ha notato che la finestra di 1M consente di mantenere "ogni entità, segnale e teoria di lavoro in vista dalla prima avvisaglia alla risoluzione" senza compromettere la sfumatura. Ciò è cruciale per diagnosticare guasti complessi e a cascata in sistemi distribuiti.

È interessante notare che alcuni utenti riferiscono una maggiore efficienza. Un team ha scoperto che aumentando la finestra di contesto di Opus da 200K a 500K token ha portato l'agente a utilizzare effettivamente meno token complessivamente, poiché ha speso meno overhead nella gestione del contesto e più nel compito principale.

Disponibilità e integrazione nell'ecosistema

La funzionalità di contesto di 1M è disponibile immediatamente sulla piattaforma Claude. È anche accessibile attraverso i principali marketplace di AI cloud, tra cui Amazon Bedrock, Vertex AI di Google Cloud e Microsoft Foundry. Questa ampia disponibilità assicura che i clienti aziendali possano integrare la capacità nei loro flussi di lavoro e infrastrutture cloud esistenti.

Per i team, l'integrazione in Claude Code per gli utenti Max, Team e Enterprise significa che la potenza è attivata per impostazione predefinita. Non c'è bisogno di flag API speciali o configurazioni; le sessioni di Opus 4.6 hanno automaticamente accesso alla finestra completa, riducendo l'attrito per gli sviluppatori che costruiscono assistenti AI complessi e a lunga esecuzione.

Anthropic ha fornito link alla sua documentazione sulle finestre di contesto e alla pagina dei prezzi per gli sviluppatori che cercano i dettagli.

Analisi: una mossa strategica nella corsa all'AI

Questo annuncio è più di un aggiornamento di funzionalità; è una mossa strategica nella crescente competizione sui modelli di frontiera. Rendendo disponibile generalmente il contesto di 1M ai tassi standard, Anthropic sta direttamente sfidando l'idea che il contesto ultra-lungo sia una capacità di nicchia e premium. Stanno normalizzandolo, costringendo i concorrenti a giustificare qualsiasi costo aggiuntivo per una scala simile.

L'attenzione sulle applicazioni aziendali provate e pratiche—recensione del codice, analisi legale, ricerca scientifica—sposta la narrazione dalle specifiche tecniche grezze al valore aziendale tangibile. Ogni testimonianza serve come caso di studio, dimostrando un ritorno sull'investimento che giustifica il costo computazionale.

Inoltre, l'abbinamento di questo con le ultime versioni del modello (4.6) assicura che gli utenti debbano essere sull'iterazione più recente e più capace per accedere alla funzionalità. Ciò guida l'adozione dei modelli più recenti e rafforza il rapido ritmo di rilascio di Anthropic come vantaggio chiave.

La mossa preme anche sull'ecosistema più ampio. Man mano che gli sviluppatori iniziano a progettare applicazioni assumendo che un contesto di 1 milione di token sia conveniente e affidabile, aumenterà la soglia per tutte le piattaforme AI. L'era della gestione laboriosa delle finestre di contesto per flussi di lavoro AI sofisticati potrebbe volgere al termine.