L'AI di Anthropic scopre 22 vulnerabilità di sicurezza in Firefox in un'impresa pionieristica di Red Teaming
La ricerca di vulnerabilità potenziata dall'AI raggiunge un nuovo traguardo
In una dimostrazione storica delle capacità in evoluzione dell'AI nella sicurezza informatica, l'AI Claude Opus 4.6 di Anthropic ha identificato 22 vulnerabilità di sicurezza in Mozilla Firefox durante uno sforzo collaborativo di red teaming di due settimane. Di queste, Mozilla ha classificato 14 come difetti di alta gravità, rappresentando quasi un quinto di tutte le vulnerabilità di alta gravità corrette nel browser nel corso del 2025. Questa partnership segna un'accelerazione drammatica nel processo di rilevamento delle vulnerabilità, anche per uno dei progetti open-source più esaminati al mondo.
I risultati, dettagliati da Anthropic e confermati da Mozilla, mostrano come i modelli AI stiano passando da strumenti di sicurezza teorici a cacciatori di bug pratici e ad alta produttività. "L'AI sta rendendo possibile rilevare gravi vulnerabilità di sicurezza a velocità notevolmente accelerate", ha dichiarato Anthropic. Mozilla ha già rilasciato correzioni per la maggior parte di questi problemi in Firefox 148.0, rilasciato alla fine di febbraio 2026, proteggendo centinaia di milioni di utenti.
Dal benchmark al browser: testare l'AI su codice complesso
L'iniziativa di Anthropic è iniziata alla fine del 2025 come uno sforzo per costruire una valutazione più realistica per i suoi modelli oltre i benchmark standard. Dopo aver notato che Claude Opus 4.5 stava raggiungendo la padronanza del benchmark CyberGym, il team ha costruito un dataset di CVE (Common Vulnerabilities and Exposures) storici di Firefox. Hanno scelto Firefox specificamente perché la sua complessità e il rigoroso test di sicurezza presentavano una sfida formidabile.
"Firefox è sia un codebase complesso che uno dei progetti open-source più testati e sicuri al mondo", ha spiegato Logan Graham, capo del frontier red team di Anthropic, in una dichiarazione ad Axios. Ciò lo rendeva un test più difficile rispetto ai precedenti obiettivi di software open-source. Il team ha prima convalidato la capacità di Claude di riprodurre CVE storici noti in codice più vecchio.
Per escludere la possibilità che questi bug fossero memorizzati dai dati di addestramento, il passo successivo critico è stato quello di assegnare a Claude il compito di trovare vulnerabilità nuove e precedentemente non segnalate nella versione *attuale* di Firefox. Il team è partito dal motore JavaScript, un componente critico con un'ampia superficie di attacco, poiché elabora codice non attendibile dal web.
Scoperta rapida e partnership di scalabilità
I risultati sono stati sorprendentemente rapidi. Entro appena venti minuti, Claude Opus 4.6 ha segnalato una vulnerabilità di memoria Use After Free nel motore JavaScript. Dopo la convalida interna da parte di più ricercatori, Anthropic ha presentato la sua prima segnalazione di bug al tracker Bugzilla di Mozilla, completa di descrizione e di una patch proposta da Claude.
"Nel momento in cui abbiamo convalidato e presentato questa prima vulnerabilità... Claude aveva già scoperto cinquanta altri input di crash unici", ha notato Anthropic. Un ricercatore di Mozilla si è presto fatto avanti, portando a un cambiamento fondamentale nel processo. Mozilla ha incoraggiato Anthropic a presentare tutte le scoperte in blocco, anche le segnalazioni di crash non convalidate, per semplificare la triage.
Questo approccio collaborativo si è rivelato altamente efficace. In definitiva, Anthropic ha esaminato quasi 6.000 file C++ e ha presentato 112 segnalazioni uniche nel corso delle due settimane. Mozilla ha mobilitato i team di ingegneria in quella che Chris Grinstead di Mozilla ha descritto ad Axios come una "risposta agli incidenti" per triage e patchare l'afflusso. Dei 112 rapporti, 22 erano bug sensibili alla sicurezza che richiedevano CVE, mentre gli altri ~90 riguardavano crash non di sicurezza o errori logici.
Spingere i limiti: dalla ricerca di bug alla scrittura di exploit
Anthropic non si è fermata alla scoperta. In una valutazione separata e più preoccupante, il team ha testato se Claude potesse sviluppare exploit funzionali per le vulnerabilità che aveva trovato. L'obiettivo era misurare i limiti superiori delle capacità di sicurezza offensive dell'AI. I ricercatori hanno dato a Claude l'accesso ai bug presentati e lo hanno incaricato di creare exploit di prova del concetto in grado di leggere o scrivere un file locale su un sistema bersaglio.
Nonostante l'esecuzione di questo test centinaia di volte a un costo di circa 4.000 dollari in crediti API, Opus 4.6 è riuscito a creare un exploit rozzo e funzionante solo in due casi. Ciò rivela un'intuizione cruciale: gli attuali modelli di frontiera sono significativamente migliori nel trovare vulnerabilità che nello sfruttarle. Il costo della scoperta è anche un ordine di grandezza inferiore al costo dello sviluppo di un attacco funzionale.
Tuttavia, il fatto che Claude sia riuscito a automatizzare lo sviluppo di exploit è un segnale di allarme. Anthropic ha sottolineato che questi erano exploit "rozzi" che funzionavano solo in un ambiente di test con determinate funzionalità di sicurezza del browser, come il sandbox, intenzionalmente disabilitate. "La 'difesa in profondità' di Firefox sarebbe stata efficace nel mitigare questi particolari exploit", ha dichiarato la società, ma la capacità rappresenta un componente necessario di un attacco a catena completa.
Best practice per un flusso di lavoro di sicurezza potenziato dall'AI
La collaborazione ha fornito lezioni procedurali per integrare l'AI nel processo di divulgazione delle vulnerabilità. Anthropic ha sottolineato l'importanza dei "verificatori di attività"—strumenti affidabili che consentono a un agente AI di controllare il proprio lavoro in tempo reale. Per la caccia ai bug, ciò significa strumenti automatizzati per verificare se un input di codice attiva un crash. Per gli "agenti di patching", i verificatori devono confermare che una correzione rimuove la vulnerabilità senza interrompere la funzionalità esistente.
Mozilla ha identificato tre componenti chiave che hanno costruito la fiducia nei rapporti generati dall'AI di Anthropic: chiara evidenza dell'innesco del bug, dimostrazione del suo impatto sulla sicurezza e riproducibilità. Anthropic incoraggia altri ricercatori che utilizzano strumenti potenziati da LLM a includere prove simili. La società ha anche pubblicato i suoi principi di Coordinated Vulnerability Disclosure, aderendo alle norme attuali del settore pur riconoscendo che queste potrebbero dover evolversi con le capacità dell'AI.
La finestra del difensore e cosa viene dopo
Questo caso di studio arriva insieme al lancio di Claude Code Security di Anthropic, uno strumento di test di sicurezza del codice automatizzato ora in anteprima di ricerca limitata. L'annuncio dello strumento ha brevemente scosso le azioni di sicurezza informatica, secondo Axios, sottolineando il riconoscimento del mercato del potenziale dirompente dell'AI nella sicurezza. La partnership con Mozilla fornisce un modello per come i responsabili della manutenzione open-source possono gestire il volume aumentato e la plausibilità delle segnalazioni di bug generate dall'AI.
Anthropic sottolinea che, per ora, l'AI offre ai difensori un vantaggio distinto. "Opus 4.6 è attualmente molto migliore nell'identificare e correggere le vulnerabilità che nello sfruttarle", ha concluso la società. Tuttavia, avvertono che il divario tra le capacità di scoperta e di sfruttamento è improbabile che duri a lungo data la velocità di avanzamento dell'AI.
L'urgenza è chiara. Anthropic sta utilizzando Claude per controllare altri software critici, tra cui il kernel Linux, e prevede di espandere i suoi sforzi di sicurezza informatica. Il messaggio agli sviluppatori è di "raddoppiare gli sforzi per rendere il loro software più sicuro" durante questa finestra attuale. Man mano che i modelli AI continuano ad avanzare, la collaborazione tra ricercatori AI e responsabili della manutenzione del software, esemplificata da Anthropic e Mozilla, sarà critica nel rafforzare l'ecosistema digitale contro minacce automatizzate sempre più sofisticate.
Related News

Cantante AI 'Eddie Dalton' Domina le Classifiche di iTunes, Scatenando un Dibattito nell'Industria

Gemma 4 E2B Alimenta la Chat AI in Tempo Reale su Dispositivo nel Progetto Parlor

GuppyLM: un piccolo progetto LLM demistifica l'addestramento dei modelli AI

Gli agenti di codifica AI abilitano gli sviluppatori a costruire strumenti complessi più velocemente

BrowserStack accusato di aver fatto trapelare indirizzi email degli utenti alla piattaforma di intelligence commerciale

