OpenAI si oppone alla designazione del Pentagono di Anthropic come rischio per la catena di approvvigionamento
OpenAI prende posizione contro un'azione senza precedenti del Pentagono
In un raro intervento pubblico, OpenAI ha espresso una forte opposizione alla decisione del Dipartimento della Difesa degli Stati Uniti di designare il suo rivale AI, Anthropic, come un rischio per la catena di approvvigionamento della sicurezza nazionale. In un post su X (ex Twitter), OpenAI ha dichiarato: "Non riteniamo che Anthropic debba essere designata come un rischio per la catena di approvvigionamento e abbiamo chiarito la nostra posizione al Dipartimento della Guerra." Questa presa di posizione pubblica sottolinea la natura straordinaria del conflitto in corso tra il Pentagono e Anthropic.
La disputa ruota attorno all'adesione di Anthropic alle proprie salvaguardie etiche. Secondo numerosi rapporti di TechCrunch e The Verge, il Pentagono ha chiesto all'azienda di rimuovere le restrizioni che impediscono alla sua AI Claude di essere utilizzata per la sorveglianza domestica di massa o per sistemi d'arma completamente autonomi. Il CEO di Anthropic, Dario Amodei, si è rifiutato di scendere a compromessi su questi due punti, portando a una drammatica escalation da parte dell'amministrazione Trump.
La designazione senza precedenti e i suoi effetti a catena
Il 27 febbraio 2026, il presidente Trump ha diretto le agenzie federali tramite Truth Social a cessare qualsiasi uso dei prodotti Anthropic, consentendo un periodo di transizione di sei mesi. Il Segretario della Difesa Pete Hegseth ha seguito con un'azione esecutiva definitiva. Ha annunciato che il Pentagono avrebbe formalmente designato Anthropic come un "Rischio per la Catena di Approvvigionamento della Sicurezza Nazionale", con effetto immediato.
Questa classificazione comporta gravi conseguenze. Come riportato da Axios e The Verge, non solo termina il contratto da 200 milioni di dollari di Anthropic con il Pentagono, ma obbliga anche qualsiasi appaltatore, fornitore o partner che fa affari con l'esercito statunitense a tagliare i legami commerciali con Anthropic. Grandi aziende tecnologiche della difesa come AWS, Palantir e Anduril, che utilizzano Claude per la sua unica autorizzazione per informazioni classificate, sarebbero costrette a abbandonare il modello AI.
La designazione è storicamente riservata a società di nazioni avversarie, come la cinese Huawei. Applicarla a un'azienda nazionale statunitense è, come hanno notato gli esperti a The Verge, "estremamente insolito" e "senza precedenti". Geoffrey Gertz del Center for a New American Security ha detto a The Verge che il Pentagono avrebbe potuto classificare Anthropic segretamente; la minaccia pubblica stessa è stata vista come una tattica di pressione straordinaria.
Uno scontro sull'etica dell'AI e l'applicazione militare
Il nucleo del conflitto è un disaccordo fondamentale sul controllo e l'applicazione dell'AI avanzata. Il Pentagono, come riportato da Axios, sosteneva di avere l'autorità di determinare come utilizzare gli strumenti AI per "tutti gli scopi legali". La politica d'uso accettabile di Anthropic, che vieta gli usi per lo "sviluppo di armi" e la "sorveglianza illegale", è stata vista come un vincolo inaccettabile dalla leadership militare.
La posizione di Anthropic, come dichiarata da Amodei, era che la sua "forte preferenza è continuare a servire il Dipartimento" ma con le salvaguardie richieste intatte. L'azienda si è offerta di facilitare una transizione graduale a un altro fornitore se il Pentagono avesse scelto di terminare il contratto. Questa posizione è stata interpretata dall'amministrazione come non conformità, innescando le misure di ritorsione.
In un'intervista esclusiva con CBS News, il CEO Dario Amodei ha caratterizzato le azioni del governo come "retaliatorie e punitive". Ha sottolineato la natura senza precedenti della mossa, notando che era la prima designazione di questo tipo mai emessa per un'azienda statunitense. Il Pentagono aveva apparentemente dato a Anthropic una scadenza finale per capitolare, definendola internamente un "incontro decisivo".
Implicazioni più ampie per l'industria dell'AI e la sicurezza nazionale
L'opposizione pubblica di OpenAI segnala una frattura critica del settore. Mentre le aziende competono ferocemente nell'arena commerciale dell'AI, la dichiarazione di OpenAI suggerisce un fronte unito contro un'azione governativa percepita come punitiva e che stabilisce un pericoloso precedente. L'evento solleva profonde domande sull'equilibrio tra etica aziendale, esigenze di sicurezza nazionale e eccesso di potere governativo.
L'impatto finanziario e operativo su Anthropic potrebbe essere grave. Oltre alle entrate governative perse, l'effetto lista nera minaccia l'intera base di clienti aziendali all'interno dell'ecosistema industriale della difesa. Ciò mette sotto pressione non solo Anthropic, ma qualsiasi azienda AI che consideri confini etici per il lavoro militare.
Inoltre, la natura pubblica e avversaria della disputa rappresenta un allontanamento dai processi standard e classificati di approvvigionamento. Introduce dimensioni di pubbliche relazioni e politiche in quelle che sono tipicamente negoziazioni di sicurezza nazionale a porte chiuse. Questo potrebbe influenzare futuri contratti e dissuadere altre aziende AI dall'impegnarsi con le agenzie governative.
La situazione rimane fluida. Anthropic non ha indicato se sfiderà legalmente la designazione. L'esito stabilirà un precedente cruciale per come il governo statunitense interagisce con le aziende tecnologiche nazionali su questioni di etica, conformità e sicurezza nazionale nell'era dell'AI.
Related News

Cantante AI 'Eddie Dalton' Domina le Classifiche di iTunes, Scatenando un Dibattito nell'Industria

Gemma 4 E2B Alimenta la Chat AI in Tempo Reale su Dispositivo nel Progetto Parlor

GuppyLM: un piccolo progetto LLM demistifica l'addestramento dei modelli AI

Gli agenti di codifica AI abilitano gli sviluppatori a costruire strumenti complessi più velocemente

BrowserStack accusato di aver fatto trapelare indirizzi email degli utenti alla piattaforma di intelligence commerciale

