Il CEO di Anthropic Amodei accusa OpenAI di 'Bugie' sul Contratto per l'AI Militare
AI News

Il CEO di Anthropic Amodei accusa OpenAI di 'Bugie' sul Contratto per l'AI Militare

5 min
05/03/2026
Artificial IntelligenceAI EthicsOpenAIAnthropic

I Leader dell'AI si Scontrano sull'Etica Militare e il "Teatro della Sicurezza"

La rivalità latente tra OpenAI e Anthropic è esplosa in una guerra di parole pubblica sull'etica dell'AI militare. In un memorandum interno riportato da The Information, il CEO di Anthropic Dario Amodei ha definito le dichiarazioni pubbliche di OpenAI sul nuovo contratto con il Dipartimento della Difesa (DoD) come "bugie vere e proprie" e ha liquidato le sue misure di sicurezza come "teatro della sicurezza". Questa accusa segue l'ingresso di OpenAI nel contratto dopo che Anthropic ha abbandonato il proprio contratto da 200 milioni di dollari con il Pentagono a causa di disaccordi fondamentali.

"La ragione principale per cui [OpenAI] ha accettato [l'accordo del DoD] e noi no è che loro si preoccupavano di compiacere i dipendenti, mentre noi ci preoccupavamo realmente di prevenire gli abusi", ha scritto Amodei al suo staff. La disputa centrale riguarda la richiesta del Pentagono di accesso illimitato ai sistemi AI per "qualsiasi uso legale". Anthropic ha insistito su divieti contrattuali espliciti contro l'uso del suo Claude AI per la sorveglianza di massa domestica o l'armamento autonomo.

Quando il DoD ha rifiutato, Anthropic si è ritirato. OpenAI ha poi annunciato il proprio accordo, con il CEO Sam Altman che ha dichiarato che includeva "salvaguardie tecniche" e protezioni contro le stesse linee rosse. Tuttavia, Amodei e i critici sostengono che il linguaggio giuridico fondamentale - "tutti gli scopi legali" - rimane pericolosamente ampio e rispecchia i termini che Anthropic aveva rifiutato.

La Divisione Contrattuale: "Uso Legale" vs. Divieti Espliciti

La sfumatura tecnica e giuridica è critica. La posizione di Anthropic, dettagliata in una dichiarazione pubblica, era che la frase "qualsiasi uso legale" era inaccettabile perché le leggi possono cambiare. Ciò che è illegale oggi, come certe pratiche di sorveglianza, potrebbe diventare legale domani, concedendo così al militare carta bianca. Loro hanno richiesto divieti espliciti e immutabili scritti nel contratto.

Il post iniziale del blog di OpenAI affermava che il suo contratto consentiva l'uso per "tutti gli scopi legali", ma sosteneva che il DoD aveva chiarito che considerava la sorveglianza domestica di massa illegale e non aveva in programma tale uso. Dopo un significativo contraccolpo, Altman ha successivamente modificato il linguaggio pubblico, aggiungendo che l'AI "non deve essere intenzionalmente utilizzata per la sorveglianza domestica delle persone statunitensi". Ha anche ammesso che l'accordo "era sicuramente frettoloso e l'impressione non è buona".

Questa chiarificazione post-hoc non ha soddisfatto molti. Il ricercatore di OpenAI Noam Brown ha notato che il linguaggio originale lasciava "domande legittime senza risposta" riguardo alla sorveglianza abilitata dall'AI. Mentre ha detto che l'aggiornamento lo aveva affrontato, ha sottolineato che "il mondo non dovrebbe dover fare affidamento sulla fiducia nei laboratori AI o nelle agenzie di intelligence per la propria sicurezza".

continua a leggere sotto...

Dissenso tra i Dipendenti e Reazione Negativa del Mercato

La controversia ha acceso dissenso interno in OpenAI e palpabile rabbia tra gli utenti. Dipendenti di OpenAI e Google hanno firmato una lettera di solidarietà con la posizione di Anthropic, spingendo i loro dirigenti a resistere alla "pressione" del Pentagono. Nel frattempo, la reazione pubblica è stata rapida e severa.

Secondo TechCrunch, le disinstallazioni di ChatGPT sono aumentate del 295% dopo l'annuncio dell'accordo di OpenAI. Amodei ha notato nel suo memorandum che l'app Claude di Anthropic era salita al #2 nell'App Store, suggerendo che gli utenti stavano votando con i piedi. "Penso che questo tentativo di manipolazione/gaslighting non stia funzionando molto bene sul pubblico generale o sui media", ha scritto.

La reazione negativa è stata aggravata dal momento geopolitico. Come riportato da CNBC e Yahoo Finance, l'accordo di OpenAI è stato annunciato poche ore prima che gli Stati Uniti e Israele lanciassero attacchi in Iran. I critici hanno immediatamente collegato i puntini, mettendo in dubbio se l'AI fosse utilizzata per la selezione degli obiettivi - una rivendicazione credibilita da rapporti secondo cui Claude di Anthropic era stato utilizzato in una precedente operazione per catturare il presidente venezuelano Nicolás Maduro.

Implicazioni più Ampie: Uno Scisma nella Governance dell'AI

Questo scontro rappresenta più di una rivalità aziendale; evidenzia uno scisma fondamentale su come le principali aziende AI si avvicinano alla governance, all'etica e alle partnership governative. Anthropic si sta posizionando come l'astinente di principio, disposto a rinunciare a contratti governativi massicci per mantenere un controllo rigoroso sull'applicazione della sua tecnologia.

OpenAI, nel frattempo, sta navigando un percorso di impegno con salvaguardie. I funzionari, come riportato da Axios, sostengono di voler ricercatori con autorizzazioni di sicurezza per monitorare l'uso e consigliare sui rischi, e cercano salvaguardie tecniche come confinare i modelli in ambienti cloud (non dispositivi edge come le armi). Tuttavia, una fonte ha detto ad Axios che queste proposte potrebbero affrontare la stessa resistenza incontrata da Anthropic: essere viste come troppo controllo da parte delle aziende private sul lavoro governativo.

Il Pentagono, da parte sua, ha ribattuto con forza. L'ufficiale Emil Michael ha denunciato Amodei come un "bugiardo" con un "complesso di Dio" che stava "mettendo a rischio la sicurezza della nostra nazione". Tuttavia, molti a Silicon Valley e Washington DC hanno elogiato la posizione di Anthropic.

Cosa Segue: Scrutineo, Salvaguardie e Strategia

Le conseguenze sono tutt'altro che finite. OpenAI è ora in modalità di controllo dei danni, modificando il linguaggio del contratto e sospendendo la distribuzione alle agenzie di intelligence come la NSA per consentire tempo per uno scrutinio democratico. L'incidente ha esposto una vulnerabilità critica per le aziende AI: la percezione di compromesso etico può innescare un'immediata rivolta degli utenti e una disaffezione dei talenti.

Per l'industria, questo episodio stabilisce un precedente. Costringe ogni azienda AI a definire chiaramente le proprie linee rosse per l'uso militare e governativo e a decidere quanto duramente combatterà per esse. Il mercato ha mostrato che un segmento significativo di utenti premia l'integrità etica percepita, potenzialmente rimodellando le dinamiche competitive.

In ultima analisi, il "perché è importante" è chiaro. Non si tratta solo di un contratto; si tratta di chi stabilisce le regole per la tecnologia più potente del nostro tempo. Man mano che questi strumenti vengono integrati nella sicurezza nazionale, il conflitto tra etica aziendale, richieste governative e fiducia pubblica si intensificherà solo, con la faida Amodei-Altman che segna la sua prima grande battaglia pubblica.