Pentagono, scontro aperto con Anthropic: verso la designazione come “rischio per la sicurezza”
Il Segretario alla Difesa Hegseth è vicino a interrompere i rapporti con l'azienda di intelligenza artificiale. In gioco il futuro dell'uso militare di Claude, attualmente l'unico modello di IA disponibile nei sistemi classificati dell'esercito americano.
Il Dipartimento della Difesa degli Stati Uniti si prepara a uno scontro senza precedenti con Anthropic, una delle principali aziende di intelligenza artificiale al mondo. Secondo quanto rivelato da Axios, il Segretario alla Difesa Pete Hegseth sarebbe sempre più vicino ad interrompere i rapporti commerciali con la società ed addirittura a designarla come “rischio di sicurezza per la catena di approvvigionamento”, una designazione solitamente riservata ad attori stranieri ostili.
Una tale decisione obbligherebbe tutte le aziende che collaborano con l’esercito americano a certificare di non utilizzare Claude, il sistema di IA sviluppato da Anthropic, nei propri processi operativi.
Un alto funzionario del Pentagono ha dichiarato ad Axios che "sarà estremamente complicato abbandonare Claude, e ci assicureremo che paghino un prezzo per averci costretto a questa scelta". Sean Parnell, portavoce del Dipartimento della Difesa, ha confermato che "il rapporto con Anthropic è sotto esame", aggiungendo che "la nostra nazione richiede che i nostri partner siano disposti ad aiutare le nostre Forze Armate a prevalere in qualsiasi conflitto".
Da parte sua, un portavoce dell’azienda ha definito le conversazioni in corso con il Pentagono "produttive e condotte in buona fede", ribadendo l’impegno nell’utilizzo dell’intelligenza artificiale avanzata a supporto della sicurezza nazionale e ricordando che Claude è stato il primo modello impiegato su reti classificate.
Un divorzio complesso
La rottura, tuttavia, sarebbe tutt’altro che semplice. Claude è attualmente l’unico modello di intelligenza artificiale disponibile sui sistemi classificati dell’esercito ed è considerato tra i più avanzati per numerose applicazioni strategiche. Secondo fonti citate da Axios, il software sarebbe stato impiegato anche in recenti operazioni sensibili.
I funzionari del Pentagono riconoscono apertamente le capacità del sistema. Un alto esponente dell’amministrazione ha ammesso che i modelli concorrenti "sono di poco inferiori" nelle applicazioni governative specializzate, rendendo un’eventuale sostituzione improvvisa particolarmente complessa.
Le ripercussioni dello scontro andrebbero ben oltre il contratto diretto tra Pentagono e Anthropic, del valore massimo di 200 milioni di dollari — una cifra modesta rispetto ai circa 14 miliardi di dollari di ricavi annuali dell’azienda. Anthropic ha dichiarato recentemente che otto delle dieci maggiori aziende statunitensi utilizzano Claude; molte di queste, però, collaborano anche con il Dipartimento della Difesa ed in futuro sarebbero quindi chiamate a certificare l’assenza di questo software nei propri sistemi.
Il nodo delle condizioni d’uso
Al centro della disputa vi sono mesi di trattative sui limiti di utilizzo militare di Claude. Anthropic e il suo amministratore delegato, Dario Amodei, si sono detti disponibili ad allentare alcune condizioni, ma insistono su due linee rosse: il divieto di impiegare gli strumenti per la sorveglianza di massa dei cittadini americani e quello di utilizzarli per sviluppare armi autonome senza supervisione umana.
Il Pentagono giudica tali restrizioni eccessivamente limitanti, sostenendo che le numerose ambiguità interpretative renderebbero difficile operare con questi vincoli. La richiesta dei vertici del Pentagono è quella di poter utilizzare gli strumenti di IA per tutti gli scopi consentiti dalla legge.
La questione della sorveglianza è particolarmente delicata. L’attuale quadro normativo non disciplina in modo esplicito l’impiego dell’intelligenza artificiale in ambito militare e di sicurezza. Il Dipartimento della Difesa può già raccogliere ampie quantità di dati sui cittadini americani, dai contenuti pubblicati sui social media alle informazioni relative al porto d’armi. L’integrazione sistematica dell’IA potrebbe ampliare in modo significativo questa capacità, sollevando preoccupazioni sul piano della tutela della privacy.
Implicazioni per l’intero settore
Lo scontro con Anthropic ha anche implicazioni strategiche più ampie. Il Pentagono sta già conducendo trattative parallele con OpenAI, Google ed xAI, che avrebbero già accettato di rimuovere alcune restrizioni per l’uso dei propri modelli nei sistemi non classificati dell’esercito, pur non essendo ancora impiegati nelle reti classificate più sensibili.
Un alto funzionario della Casa Bianca si è detto fiducioso che le tre aziende possano accettare uno standard di pieno utilizzo per scopi legali, anche se, secondo fonti informate, restano ancora diversi aspetti da definire.