Google e Microsoft confermano la disponibilità di Anthropic AI nonostante la blacklist del Pentagono
AI News

Google e Microsoft confermano la disponibilità di Anthropic AI nonostante la blacklist del Pentagono

4 min
06/03/2026
GoogleAnthropicdefenseavailability

I giganti del cloud tracciano una linea di demarcazione

In una mossa significativa che chiarisce i confini di un crescente scontro politico ed etico, Google e Microsoft hanno dichiarato pubblicamente che continueranno a offrire la tecnologia di intelligenza artificiale di Anthropic ai loro clienti cloud, escludendo esplicitamente il lavoro per il Dipartimento della Difesa degli Stati Uniti. Questa posizione coordinata segue la designazione ufficiale del Pentagono di Anthropic come "rischio per la catena di approvvigionamento per la sicurezza nazionale".

L'annuncio di Google venerdì 6 marzo 2026 è arrivato appena un giorno dopo una dichiarazione simile da parte di Microsoft. Amazon Web Services, leader del mercato cloud, ha seguito l'esempio. Il chiaro messaggio dai fornitori di infrastrutture è che, sebbene i contratti di difesa siano fuori limite, la disponibilità commerciale e di ricerca dei modelli Claude di Anthropic rimane invariata.

"Comprendiamo che la Determinazione non ci impedisce di lavorare con Anthropic su progetti non relativi alla difesa e i loro prodotti rimangono disponibili attraverso le nostre piattaforme, come Google Cloud" ha detto un portavoce di Google a CNBC. Questa interpretazione della decisione del Pentagono è centrale allo stallo in corso e fornisce stabilità immediata per la stragrande maggioranza della base clienti di Anthropic.

Il cuore del conflitto: salvaguardie AI vs richieste militari

La disputa nasce da un disaccordo ad alto rischio durato mesi su come il militare possa schierare AI avanzate. Secondo Reuters e TechCrunch, il Pentagono ha spinto le società di AI ad adottare una clausola di "uso legittimo" per la loro tecnologia. Anthropic, sotto la guida del CEO Dario Amodei, si è rifiutata di cedere su specifiche linee rosse etiche.

L'azienda ha pubblicamente vietato l'uso del suo Claude AI per alimentare sistemi di armi autonome e per la sorveglianza di massa della popolazione statunitense. Il Segretario alla Difesa Pete Hegseth ha descritto la posizione di Anthropic come "fondamentalmente incompatibile con i principi americani" e ha dichiarato che la relazione con il governo degli Stati Uniti è "permanentemente alterata".

Anthropic sostiene che Hegseth non ha l'autorità statutaria per bloccare l'uso della sua tecnologia al di fuori dei contratti di difesa diretti, una rivendicazione che il Pentagono non ha affrontato pubblicamente. L'azienda ha promesso di contestare la designazione di rischio per la catena di approvvigionamento in tribunale, definendola un eccesso di potere.

continua a leggere sotto...

Impatto sul mercato e pressione degli investitori

Nonostante il vortice politico, la domanda per i prodotti di Anthropic appare robusta. Claude è stata l'app gratuita più scaricata sull'Apple App Store ancora di recente, lunedì 2 marzo, superando ChatGPT di OpenAI. Il tasso di ricavi dell'azienda è di circa 19 miliardi di dollari, un forte aumento rispetto ai 14 miliardi di dollari di poche settimane prima.

Tuttavia, la designazione ha conseguenze immediate. Reuters riporta che diverse agenzie governative statunitensi hanno iniziato a interrompere l'uso della tecnologia di Anthropic, con il Dipartimento di Stato che passa a OpenAI come alternativa. Inoltre, un ordine dell'amministrazione Trump impone alle agenzie federali di abbandonare Anthropic entro sei mesi.

Ciò ha provocato una significativa pressione degli investitori per de-escalare il conflitto, secondo fonti Reuters. Google, un importante sostenitore finanziario con circa 3 miliardi di dollari investiti in Anthropic all'inizio del 2026, ha una profonda partnership tecnica con il laboratorio di AI. Anthropic utilizza l'infrastruttura AI di Google Cloud, compreso l'accesso a fino a 1 milione di unità di elaborazione tensoriale (TPU) personalizzate, per addestrare i suoi modelli.

La risposta divisa di Silicon Valley

La mossa del Pentagono ha inviato onde d'urto attraverso l'industria tecnologica, irrigidendo le linee di battaglia sull'uso militare dell'AI. Il Washington Post riporta che mentre Anthropic affronta l'isolamento dal lavoro governativo, rivali come Elon Musk hanno "promesso di colmare patriotticamente il divario". Ciò evidenzia una crescente spaccatura tra gli sviluppatori di AI che impongono rigorose salvaguardie etiche e quelli disposti a soddisfare più pienamente le specifiche governative e militari.

C'è anche una significativa opposizione interna all'industria. TechCrunch nota che centinaia di dipendenti di OpenAI e Google hanno esortato il Dipartimento della Difesa a ritirare la sua designazione. Hanno chiesto al Congresso di intervenire e hanno esortato i loro leader a mantenere una posizione unita nel rifiutare le richieste del Pentagono sull'uso dell'AI nella sorveglianza di massa e nell'uccisione autonoma.

Cosa succede dopo?

La continuità aziendale immediata per il settore commerciale di Anthropic è assicurata dai suoi partner cloud. I modelli Claude rimangono accessibili tramite Vertex AI di Google e attraverso altre principali piattaforme per applicazioni non difensive. Questo è un segnale critico per settori come il marketing e la pubblicità che si affidano a un'infrastruttura AI stabile.

La battaglia legale e politica, tuttavia, è appena iniziata. La promessa sfida in tribunale di Anthropic metterà alla prova i limiti dell'autorità del governo di limitare l'attività di un'azienda in base alle sue politiche etiche. L'esito potrebbe stabilire un precedente per quanto controllo i creatori di AI mantengono sulle applicazioni delle loro tecnologie dopo la distribuzione.

Questo scontro è più di una disputa contrattuale; è un referendum sulla dinamica del potere tra Silicon Valley e lo stato. Man mano che i sistemi AI diventano più capaci e integrali per la sicurezza nazionale, la tensione tra le barriere etiche aziendali e le richieste operative governative non farà che intensificarsi. L'industria — e il pubblico — seguiranno da vicino.