Il Pentagono dichiara Anthropic un rischio, ma continua a usare Claude
Washington etichetta il laboratorio di intelligenza artificiale come "rischio per la catena di approvvigionamento", una misura finora riservata ad avversari stranieri come Huawei. L'azienda annuncia ricorso in tribunale
Il Dipartimento della Difesa degli Stati Uniti ha ufficialmente dichiarato Anthropic, una delle aziende di intelligenza artificiale più importanti al mondo, un "rischio per la catena di approvvigionamento della sicurezza nazionale". La designazione, comunicata all'azienda con una lettera il 4 marzo, vieta ai contractor militari di utilizzare la tecnologia di Anthropic nei contratti con il Pentagono ed è entrata in vigore immediatamente. Si tratta di un'etichetta che Washington aveva finora riservato ad avversari stranieri: l'ultimo precedente noto riguarda il colosso cinese delle telecomunicazioni Huawei. Mai prima d'ora era stata applicata a un'azienda americana.
La rottura arriva dopo mesi di negoziati sempre più tesi su come i militari possano usare Claude, il modello di intelligenza artificiale sviluppato da Anthropic. Il Pentagono chiedeva di poter impiegare la tecnologia "per qualsiasi scopo lecito". Anthropic, guidata dal suo amministratore delegato Dario Amodei, poneva due condizioni: nessun utilizzo per armi autonome letali e nessuna sorveglianza di massa sui cittadini americani. Due linee rosse che l'azienda considerava irrinunciabili e che il Dipartimento della Difesa riteneva invece inaccettabili, sostenendo che non spetta a un'azienda privata dettare le regole a un governo eletto.
Le tensioni sono esplose venerdì 28 febbraio, quando il segretario alla Difesa Pete Hegseth ha annunciato su X l'intenzione di applicare la designazione, accusando Anthropic di volersi "arrogare un potere di veto sulle decisioni operative delle forze armate". Poco prima, il presidente Trump aveva scritto su Truth Social che Anthropic stava cercando di "costringere il Dipartimento della Guerra a obbedire alle proprie condizioni d'uso invece che alla Costituzione".
Amodei ha confermato la designazione in una lunga dichiarazione pubblicata giovedì sera, annunciando che l'azienda la contesterà in tribunale. "Non riteniamo che questa azione sia giuridicamente fondata e non vediamo altra scelta che contestarla in sede giudiziaria", ha scritto. In un'intervista con la direttrice dell'Economist, Zanny Minton Beddoes, Amodei ha spiegato che il ricorso non nasce dalla volontà di alimentare lo scontro, ma dal timore di un "effetto intimidatorio" sull'intero settore. Ha definito la crisi una delle più "disorientanti" nella storia di Anthropic, ma ha assicurato che l'azienda "starà bene" e che la sanzione riguarda "una piccola frazione" del fatturato.
L'amministratore delegato si è anche scusato pubblicamente per un memo interno, scritto venerdì e pubblicato mercoledì dal sito di informazione tecnologica The Information, in cui attribuiva l'ostilità del Pentagono al fatto che l'azienda non avesse elargito "lodi in stile dittatoriale a Trump". "È stato un giorno difficile per l'azienda e mi scuso per il tono di quel messaggio. Non riflette le mie opinioni ponderate", ha scritto Amodei, precisando che il memo risaliva a sei giorni prima e rappresentava "una valutazione superata della situazione attuale".
Nella dichiarazione, Amodei ha sostenuto che la designazione ha "un ambito ristretto" e si applica solo all'uso di Claude da parte dei clienti nell'ambito di contratti diretti con il Dipartimento della Difesa, non a tutti gli usi di Claude da parte di aziende che hanno anche contratti militari. Microsoft, che offre i modelli di Anthropic ai propri clienti, ha confermato questa interpretazione: i suoi avvocati hanno concluso che i prodotti di Anthropic possono restare disponibili per tutti i clienti tranne il Dipartimento della Difesa, attraverso piattaforme come M365, GitHub e AI Foundry.
Amodei ha anche dichiarato di aver avuto "conversazioni produttive" con il Pentagono nei giorni precedenti. Ma Emil Michael, sottosegretario alla Difesa per la ricerca e l'ingegneria, ha smentito su X: "Non c'è nessun negoziato attivo del Dipartimento della Guerra con Anthropic".
La vicenda ha implicazioni che vanno ben oltre i rapporti fra un'azienda e il governo. Il caso Anthropic solleva una domanda fondamentale: chi decide come si usa l'intelligenza artificiale più potente al mondo, un governo democratico o un'azienda privata? Come ha osservato Sam Altman, l'amministratore delegato di OpenAI, in una sessione pubblica su X, "dovreste essere terrorizzati dall'idea che un'azienda privata decida cosa è etico e cosa no nei settori più importanti". Lo stesso Altman ha firmato un accordo con il Pentagono poche ore dopo la rottura con Anthropic, accettando che i militari usino i modelli di OpenAI "per qualsiasi scopo lecito". Anche xAI di Elon Musk ha raggiunto un accordo simile.
Ma la questione non è così semplice. Come ha scritto Jeremy Kahn su Fortune, il Congresso non ha approvato alcuna legislazione federale sull'intelligenza artificiale nei tre anni dalla comparsa di ChatGPT, e l'amministrazione Trump ha smantellato le limitate regolamentazioni introdotte dal governo precedente. In assenza di leggi, i negoziati contrattuali fra laboratori e governo diventano un surrogato imperfetto della governance democratica.
Diversi esperti hanno criticato la decisione del Pentagono. Michael Sobolik, esperto di intelligenza artificiale e Cina all'Hudson Institute, ha dichiarato a NBC News che gli Stati Uniti stanno "trattando un'azienda americana di intelligenza artificiale peggio di un'azienda controllata dal Partito Comunista Cinese", riferendosi al fatto che DeepSeek, un'azienda cinese di intelligenza artificiale accusata di pratiche scorrette, non ha ricevuto lo stesso trattamento. Tim Fist, direttore per le tecnologie emergenti all'Institute for Progress, ha scritto che la designazione "danneggia una delle principali aziende americane di intelligenza artificiale e rende altre aziende molto più esitanti a lavorare con il governo federale", senza produrre alcun vantaggio concreto. Dean Ball, esperto di politiche sull'intelligenza artificiale che ha collaborato brevemente con l'amministrazione Trump, ha definito la decisione un "tentativo di omicidio aziendale".
Nel frattempo, secondo quanto riportato dal Wall Street Journal e da Axios, i militari americani continuano a usare Claude nell'ambito dell'operazione Epic Fury, la guerra contro l'Iran, per analisi di intelligence e identificazione di obiettivi. Il Pentagono stesso ha concesso ad Anthropic un periodo di transizione fino a sei mesi per garantire la continuità dei servizi.
Lo scontro ha avuto anche un effetto paradossale: Claude è balzato in cima alle classifiche delle app gratuite negli store americani, superando ChatGPT. Amodei ha cercato di smorzare i toni, scrivendo che "Anthropic ha molto più in comune con il Dipartimento della Guerra di quanto abbia divergenze" e offrendo di continuare a fornire i modelli ai militari e alla comunità di sicurezza nazionale "a costo nominale e con il supporto continuo dei nostri ingegneri, per tutto il tempo necessario alla transizione".