Claude usato nell'operazione militare in Venezuela: è scontro tra Pentagono ed Anthropic

Il sistema di intelligenza artificiale è stato impiegato nel raid per catturare Maduro attraverso la partnership con Palantir Technologies. Il Dipartimento della Difesa valuta la rescissione del contratto da 200 milioni di dollari per i limiti imposti dall’azienda.

Claude usato nell'operazione militare in Venezuela: è scontro tra Pentagono ed Anthropic
Screenshot Focus America

Il modello di intelligenza artificiale Claude, sviluppato da Anthropic, è stato utilizzato dall'esercito statunitense durante l'operazione militare per catturare l'ex presidente venezuelano Nicolás Maduro, secondo quanto rivelato dal Wall Street Journal. Si tratterebbe del primo caso pubblicamente noto di utilizzo di un importante modello di IA in un'operazione classificata del Pentagono.

L’operazione, che ha incluso bombardamenti sulla capitale venezuelana causando 83 vittime secondo il ministero della Difesa del Venezuela, si è conclusa con la cattura di Maduro e di sua moglie, trasferiti negli Stati Uniti dove l’ex presidente affronta accuse di traffico di droga. Il ruolo specifico svolto da Claude nel raid rimane classificato.

L’impiego è avvenuto attraverso la partnership tra Anthropic e Palantir Technologies, azienda che fornisce servizi al Dipartimento della Difesa e alle agenzie federali di sicurezza. Proprio questa collaborazione è diventata l’epicentro di uno scontro sempre più aspro tra l’azienda di IA e l’Amministrazione Trump.

Le tensioni sul raid in Venezuela

Secondo quanto riportato da Axios, le tensioni sono esplose quando un dirigente di Anthropic ha contattato una controparte di Palantir per chiedere se Claude fosse stato utilizzato nell’operazione. Un alto funzionario dell’Amministrazione Trump ha affermato che la richiesta è stata formulata in modo da suggerire una possibile disapprovazione per l’uso del software, dato che durante il raid vi sono stati scontri a fuoco con vittime.

Anthropic ha smentito questa ricostruzione, dichiarando di non aver discusso l’uso di Claude per operazioni specifiche “con alcun partner industriale, inclusa Palantir, al di fuori di discussioni di routine su questioni strettamente tecniche”. Un portavoce dell’azienda ha aggiunto che “Claude è utilizzato per un’ampia varietà di attività legate all’intelligence in ambito governativo, incluso il Dipartimento della Difesa, in linea con le nostre politiche d’uso”.

Il contratto a rischio e le richieste del Pentagono

Il Pentagono sta ora valutando di ridimensionare o rescindere del tutto la partnership con Anthropic, come confermato da un alto funzionario dell’Amministrazione ad Axios. “Tutto è sul tavolo”, ha dichiarato il funzionario, precisando tuttavia che un eventuale sostituto dovrebbe essere individuato in modo ordinato. Il contratto, del valore di 200 milioni di dollari, è stato assegnato ad Anthropic l’estate scorsa.

Al centro della disputa ci sono le condizioni d’uso imposte dall’azienda. Il Dipartimento della Difesa sta spingendo le quattro principali aziende fornitrici di sistemi IA a consentire l’utilizzo militare dei propri strumenti per “tutti gli scopi leciti”, anche nelle aree più sensibili come lo sviluppo di armi, la raccolta di intelligence e le operazioni sul campo di battaglia. Anthropic insiste invece nel voler mantenere due limiti invalicabili: il divieto di sorveglianza di massa sui cittadini americani e il divieto di uso di armamenti completamente autonomi.

Il funzionario dell’Amministrazione ha sostenuto che esiste una considerevole zona grigia attorno a queste categorie e che per il Pentagono è impraticabile dover negoziare caso per caso con l’azienda o rischiare che Claude blocchi determinate applicazioni in modo imprevisto.

Tra i concorrenti, OpenAI, Google e xAI hanno già accettato di rimuovere le limitazioni standard per il lavoro con il Pentagono in contesti non classificati. Il funzionario ha affermato che una delle tre aziende ha già accettato lo standard richiesto, mentre le altre due si starebbero mostrando più flessibili di Anthropic. Il Pentagono sta negoziando con tutte l’accesso alle reti classificate. Lo stesso funzionario ha però ammesso che sarebbe difficile sostituire rapidamente Claude, perché le altre aziende sono ancora indietro nelle applicazioni governative specializzate.

Il dilemma di Anthropic tra sicurezza e difesa

L’amministratore delegato di Anthropic, Dario Amodei, ha espresso pubblicamente preoccupazione sull’uso dell’IA in operazioni letali autonome e nella sorveglianza interna, i due principali punti di attrito nelle trattative con il Pentagono. Questi vincoli hanno intensificato lo scontro con l’Amministrazione Trump, che include accuse secondo cui Anthropic starebbe minando la strategia di scarsa regolamentazione dell’IA promossa dalla Casa Bianca.

A gennaio, il Segretario alla Difesa Pete Hegseth ha dichiarato che il Pentagono non intende “impiegare modelli di IA che non permettono di combattere guerre”, un riferimento alle difficoltà negoziali con l’azienda. Anthropic, fondata nel 2021 da ex dirigenti di OpenAI, deve anche gestire il malumore interno tra i propri ingegneri riguardo alla collaborazione con il Pentagono.

L’azienda, sostenuta da Google e Amazon, ha raggiunto una valutazione di 380 miliardi di dollari con un fatturato annuale dichiarato di 14 miliardi. Il portavoce di Anthropic ha comunque ribadito il proprio impegno nel settore della sicurezza nazionale:

“Per questo siamo stati la prima azienda di IA a portare i nostri modelli sulle reti classificate e la prima a fornire modelli personalizzati per i clienti della sicurezza nazionale”.

L’utilizzo dell’intelligenza artificiale in ambito militare è intanto sempre più in rapida espansione a livello globale: l’esercito israeliano ha impiegato droni con capacità autonome a Gaza, mentre gli Stati Uniti hanno utilizzato sistemi di targeting basati sull’IA per attacchi in Iraq e Siria. I critici avvertono tuttavia dei rischi legati agli errori di targeting commessi da sistemi automatizzati chiamati a decidere chi deve essere colpito.​​​​​​​​​​​​​​​​

Focus America non rappresenta una testata giornalistica in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n° 62 del 7.03.2001.