Ultimatum del Pentagono: Anthropic deve cedere il controllo dell'IA o rischiare contratti di difesa
Il Pentagono intensifica lo stallo sulle limitazioni dell'IA
In una drammatica escalation di un conflitto latente, il Pentagono ha consegnato un ultimatum ad Anthropic, l'azienda focalizzata sulla sicurezza dell'intelligenza artificiale. La richiesta: concedere alle forze armate statunitensi accesso senza restrizioni al suo modello di intelligenza artificiale Claude sui sistemi classificati entro le 17:01 di venerdì 28 febbraio 2026. Il mancato rispetto comporta gravi conseguenze, inclusa l'etichettatura come rischio per la catena di approvvigionamento o l'applicazione del Defense Production Act (DPA) contro di essa.
Il confronto, riportato per primo dal The New York Times e confermato da CBS News e BBC, mette i principi fondamentali dello sviluppo responsabile dell'IA contro i requisiti operativi del Pentagono. In gioco c'è la posizione unica di Anthropic come unica azienda di IA attualmente operante sulle reti classificate del Dipartimento della Difesa, uno status guadagnato grazie al suo specializzato modello Claude Gov e a una partnership con l'azienda di analisi dati Palantir.
Una scelta netta: Adempiere o essere costretti
Secondo alti funzionari del Pentagono e fonti informate su un incontro di martedì tra il Segretario alla Difesa Pete Hegseth e l'Amministratore Delegato di Anthropic Dario Amodei, l'azienda affronta due minacce contraddittorie. La prima è essere designata come rischio per la catena di approvvigionamento, un'etichetta tipicamente riservata a potenze straniere avversarie, che metterebbe a rischio tutti i contratti governativi di Anthropic.
La seconda minaccia è l'invocazione del Defense Production Act. Questa legge dell'era della Guerra Fredda conferisce al presidente l'autorità di costringere le aziende private a dare priorità alla produzione per la difesa nazionale. Recentemente utilizzata durante la pandemia di COVID-19 per ordinare la produzione di ventilatori e mascherine, il suo uso qui costringerebbe Anthropic ad adattare il suo modello alle specifiche militari. Come ha detto una fonte a TechCrunch, questo rappresenta una "seria partita di pollo".
Il conflitto centrale: Chi controlla l'interruttore di 'accensione'?
La disputa ruota attorno a una questione fondamentale di controllo. Anthropic, che ha costruito il suo marchio su un'etica safety-first, continua a chiedere garanzie che i suoi modelli non vengano utilizzati per programmi di armi autonome o sorveglianza di massa. I sostenitori dell'azienda sostengono che sia punita per essere stata la prima sul sistema classificato e per aver creato un modello senza le consuete limitazioni commerciali.
La posizione del Pentagono, articolata da funzionari come Emil Michael, è che l'uso legittimo della tecnologia sia esclusivamente responsabilità del governo. I funzionari sostengono di non poter permettere a ogni appaltatore di dettare casi d'uso specifici per le attrezzature che vende, affermando che "l'uso legittimo deve essere l'unico vincolo". Questo principio entra direttamente in conflitto con i protocolli di sicurezza fondamentali di Anthropic.
Il valore strategico di Anthropic e i piani di riserva del Pentagono
A complicare la linea dura del Pentagono c'è la presunta superiorità tecnica di Anthropic. Un alto funzionario del Pentagono ha confermato al The New York Times che Claude è considerato un prodotto superiore ai rivali, fornendo regolarmente informazioni più accurate. Questo vantaggio tecnico lo rende un asset prezioso per le applicazioni di sicurezza nazionale.
Tuttavia, il Pentagono non è privo di alternative. Lo stesso funzionario ha confermato un accordo con la xAI di Elon Musk per utilizzare il suo modello Grok sui sistemi classificati. L'integrazione con il software di Palantir e i server cloud classificati è in corso, anche se richiederà tempo. Il Pentagono è inoltre, secondo quanto riferito, vicino a un accordo con Google per portare il suo modello Gemini sulla rete classificata, anche se tale accordo non è ancora definitivo.
Contesto di mercato più ampio e preoccupazioni degli investitori
Questo scontro avviene in un contesto più ampio di investimenti del Pentagono nell'IA di frontiera. L'anno scorso, il Dipartimento della Difesa ha assegnato contratti da 200 milioni di dollari a Anthropic, OpenAI, Google e xAI per sviluppare capacità di IA per la sicurezza nazionale. Il contratto da 200 milioni di dollari di Anthropic è stato assegnato a luglio specificamente per far progredire la sicurezza nazionale degli Stati Uniti.
L'uso del potere federale coercitivo ha suscitato allarme oltre il settore tecnologico. Esperti legali e di politica avvertono di ripercussioni significative. "Qualsiasi investitore o manager aziendale ragionevole e responsabile guarderà a questo e penserà che gli Stati Uniti non siano più un luogo stabile per fare affari", ha detto un analista a TechCrunch. Hanno sostenuto che attacca "il nucleo stesso di ciò che rende l'America un hub così importante del commercio globale".
Una violazione della fiducia e un precedente operativo
Gli osservatori citati dalla BBC suggeriscono che l'attuale battibecco derivi da una violazione della fiducia tra le due parti. Questa tensione è stata esacerbata da rapporti, confermati da fonti alla BBC, secondo cui il modello Claude di Anthropic è stato utilizzato nell'operazione che ha portato alla cattura dell'ex presidente venezuelano Nicolás Maduro a gennaio, attraverso il suo contratto con Palantir.
Questo caso d'uso nel mondo reale, potenzialmente oltrepassando linee etiche che l'azienda cerca di sostenere, evidenzia il dilemma pratico. Inoltre, come riportato da Gizmodo, Anthropic ha recentemente ridotto alcuni aspetti della sua Politica di Scalabilità Responsabile (RSP), anche se l'azienda insiste che questo cambiamento non sia correlato ai negoziati con il Pentagono. Il tempismo, tuttavia, è sospetto.
Cosa succede ora?
Secondo i rapporti di Reuters e TechCrunch, Anthropic non intende allentare le sue restrizioni d'uso, preparando il terreno per un confronto ad alto rischio. La scadenza incombe. Se Anthropic rimane ferma, il Pentagono deve decidere se mantenere le sue minacce, rischiando di perdere l'accesso a quello che considera il miglior strumento di IA per il lavoro classificato.
L'esito stabilirà un precedente critico per l'intero settore difesa-tech, definendo i confini tra etica aziendale, autorità governativa e dispiegamento di tecnologie potenti e a doppio uso. Come ha detto Emelia Probasco, Senior Fellow del Center for Security and Emerging Technology della Georgetown University alla BBC: "Devono arrivare a una risoluzione... Dobbiamo a [i membri del servizio] risolvere la questione". La risoluzione, qualunque essa sia, risuonerà attraverso la Silicon Valley e il Pentagono per gli anni a venire.
Related News

Cantante AI 'Eddie Dalton' Domina le Classifiche di iTunes, Scatenando un Dibattito nell'Industria

Gemma 4 E2B Alimenta la Chat AI in Tempo Reale su Dispositivo nel Progetto Parlor

GuppyLM: un piccolo progetto LLM demistifica l'addestramento dei modelli AI

Gli agenti di codifica AI abilitano gli sviluppatori a costruire strumenti complessi più velocemente

BrowserStack accusato di aver fatto trapelare indirizzi email degli utenti alla piattaforma di intelligence commerciale

