OpenAI punta a un contratto NATO dopo l'accordo con il Pentagono, amplia il ruolo dell'AI nella difesa
AI News

OpenAI punta a un contratto NATO dopo l'accordo con il Pentagono, amplia il ruolo dell'AI nella difesa

5 min
04/03/2026
OpenAINATOdifesareti non classificate

OpenAI raddoppia sulla difesa, punta alla NATO dopo l'accordo con il Pentagono

Dopo aver finalizzato un accordo significativo con il Dipartimento della Difesa degli Stati Uniti, OpenAI sta già cercando di ampliare la sua presenza militare. Secondo i verbali delle riunioni interne riportati da più fonti, l'amministratore delegato Sam Altman ha detto al personale che l'azienda sta "esaminando un contratto per implementare la sua tecnologia su tutte le reti classificate dell'Organizzazione del Trattato dell'Atlantico del Nord." Questo potenziale contratto NATO segue una settimana intensa segnata dall'accordo ad alto profilo con il Pentagono e dal divieto improvviso dell'amministrazione Trump nei confronti del suo rivale, Anthropic.

La sequenza degli eventi evidenzia un cambiamento cruciale e politicamente carico nel modo in cui i militari statunitensi acquisiscono tecnologia AI avanzata. OpenAI si sta posizionando come un partner conforme e attento alla sicurezza, mentre Anthropic si trova isolato legalmente. Questa divergenza sottolinea come l'etica aziendale e l'allineamento politico stanno diventando fattori critici nel mercato della difesa AI.

L'accordo con il Pentagono: 200 milioni di dollari e linee rosse esplicite

L'accordo di OpenAI con il Pentagono, annunciato da Altman su X, vale fino a 200 milioni di dollari. Concede al Dipartimento della Difesa l'accesso per implementare i modelli di OpenAI all'interno delle sue reti classificate. Fondamentalmente, il contratto incorpora quelle che Altman ha definito "linee rosse": divieti espliciti sull'uso della tecnologia per la sorveglianza di massa interna e per dirigere sistemi d'arma autonomi.

Queste salvaguardie erano una richiesta fondamentale per OpenAI. "Pensiamo che il nostro accordo abbia più protezioni di qualsiasi precedente accordo per implementazioni AI classificate, compreso quello di Anthropic", ha dichiarato l'azienda. L'implementazione tecnica prevede la distribuzione dei modelli solo in ambienti cloud e la garanzia di supervisione da parte del personale autorizzato di OpenAI, creando un sistema di protezione multilivello.

Il Pentagono, che è stato ribattezzato Dipartimento della Guerra dall'amministrazione Trump, ha dichiarato di non avere intenzione di utilizzare l'AI per la sorveglianza interna o per armi completamente autonome. Tuttavia, richiede ai contraenti di consentire l'uso per "tutti gli scopi legali". L'accordo di OpenAI naviga attraverso questo incorporando i suoi principi etici direttamente nel contratto, con disposizioni per la risoluzione in caso di violazione.

La caduta di Anthropic

Il contesto per l'ascesa di OpenAI è la drammatica caduta del suo concorrente. L'amministrazione, lo stesso giorno dell'annuncio di OpenAI, ha diretto ogni agenzia federale a "cessare immediatamente" l'uso dei prodotti di Anthropic. Il segretario alla Difesa Pete Hegseth ha designato Anthropic come "rischio per la catena di approvvigionamento per la sicurezza nazionale".

Questa classificazione, simile a quelle applicate alle aziende cinesi Huawei e ZTE, proibisce ai contraenti militari qualsiasi transazione commerciale con Anthropic. Devono certificare che il loro lavoro per il Dipartimento della Difesa non coinvolge gli strumenti AI di Anthropic. L'amministrazione ha fornito una finestra di transizione di sei mesi, ma il divieto crea una profonda incertezza legale e reputazionale per un'azienda valutata a 380 miliardi di dollari e in procinto di quotarsi in borsa.

OpenAI ha pubblicamente espresso disaccordo con la posizione dell'amministrazione su Anthropic. "Abbiamo reso chiara la nostra posizione al governo", ha detto l'azienda, notando che si oppone all'etichettatura di Anthropic come rischio per la catena di approvvigionamento. Questa rara dissidenza pubblica suggerisce l'insicurezza del settore rispetto alla politicizzazione degli appalti.

continua a leggere sotto...

La NATO: la prossima frontiera nell'AI militare

La ricerca di un contratto NATO da parte di OpenAI segnala la sua ambizione di diventare un fornitore AI fondamentale per le alleanze militari occidentali. La NATO ha segnalato un aumento significativo nella spesa per la difesa tra i suoi membri, che il venture capitalist Dave Harden ha previsto avrebbe innescato una "corsa all'oro dell'AI". Garantire l'autorizzazione per le reti classificate della NATO è un traguardo prestigioso e redditizio.

La mossa rispecchia un'approvazione recente per Apple, che ha orgogliosamente annunciato che i suoi iPhone e iPad possono ora essere utilizzati per scopi classificati NATO. Un contratto OpenAI rappresenterebbe un'integrazione tecnologica più profonda, fornendo alla struttura di comando dell'alleanza modelli AI avanzati per l'analisi, la pianificazione e le comunicazioni su reti sicure.

Analisi: un nuovo modello per i contratti di difesa AI?

I destini contrastanti di OpenAI e Anthropic rivelano un nuovo calcolo nella tecnologia di difesa. L'accordo con il Pentagono dimostra una disponibilità ad accogliere i confini etici aziendali quando sono formalizzati in un contratto. Il successo di OpenAI è dipeso dall'accettazione delle esigenze del Pentagono mentre si bloccavano contrattualmente le sue salvaguardie.

La situazione di Anthropic, dove sono state applicate etichette ideologiche come "woke", mostra come la retorica politica possa rapidamente sostituire le relazioni commerciali. L'episodio mette alla prova l'autorità federale sulle aziende AI private e potrebbe raffreddare gli investimenti nelle aziende percepite come politicamente disallineate.

I futuri contratti di difesa AI potrebbero standardizzare le clausole etiche inaugurate nell'accordo OpenAI. Lo stesso Altman ha dichiarato: "Stiamo chiedendo al [Dipartimento della Difesa] di offrire gli stessi termini a tutte le aziende AI". Ciò potrebbe stabilire un nuovo punto di riferimento, rendendo esplicite le linee rosse sulla sorveglianza e sull'autonomia una parte standard delle negoziazioni.

Impatto sul mercato e la strada da percorrere

Per OpenAI, gli accordi con il Pentagono e potenzialmente con la NATO garantiscono un vantaggio competitivo formidabile nel settore in crescita della difesa AI. Ciò solidifica il ruolo dell'azienda come partner chiave nella strategia AI dei militari statunitensi. Per Anthropic, la designazione come rischio per la catena di approvvigionamento è un colpo severo che si estende oltre il Pentagono e potrebbe ripercuotersi sulla sua impresa commerciale e sulla imminente quotazione in borsa.

La sfida legale promessa da Anthropic potrebbe prolungare la disruption. L'esito sarà attentamente osservato come un caso di prova per il potere governativo di inserire nella blacklist i fornitori AI. Nel frattempo, l'integrazione tecnica di OpenAI nei sistemi classificati del Pentagono potrebbe accelerare entro mesi, data l'enfasi su una transizione senza intoppi.

Gli eventi della settimana segnano un punto di inflessione definitivo. L'establishment della difesa statunitense si sta muovendo rapidamente per adottare e controllare l'AI avanzata. In questo ambiente ad alto rischio, la capacità di un'azienda di navigare sia nelle imperative etiche che nelle realtà politiche è diventata importante quanto la capacità della sua tecnologia.