Trump bandisce Anthropic dal governo americano
Il presidente ordina a tutte le agenzie federali di smettere di usare la tecnologia della startup californiana, che rifiuta di togliere i limiti all'uso militare della sua IA. OpenAI stringe subito un accordo col Pentagono.
Il presidente Donald Trump ha ordinato a tutte le agenzie federali americane di interrompere immediatamente l'uso della tecnologia di Anthropic, la startup californiana produttrice del modello di intelligenza artificiale Claude. La decisione segue settimane di scontro tra la società e il Pentagono sull'uso militare dei sistemi di IA, e potrebbe complicare seriamente il lavoro di analisi dell'intelligence e delle forze armate americane.
"Ordino a OGNI agenzia federale del governo americano di CESSARE IMMEDIATAMENTE ogni utilizzo della tecnologia di Anthropic. Non ne abbiamo bisogno, non la vogliamo, e non faremo più affari con loro", ha scritto Trump sulla sua piattaforma Truth Social, definendo l'azienda una "compagnia di IA della sinistra radicale". Poco dopo, il segretario alla Difesa Pete Hegseth ha annunciato su X che avrebbe inserito Anthropic nella lista delle aziende classificate come "rischio per la supply chain della sicurezza nazionale", una misura finora riservata quasi esclusivamente a fornitori stranieri considerati ostili agli Stati Uniti, come il colosso cinese delle telecomunicazioni Huawei. La designazione impedisce a decine di migliaia di aziende fornitrici del Pentagono di fare affari con Anthropic.
Trump ha anche annunciato un periodo di sei mesi per la dismissione graduale della tecnologia Anthropic nelle agenzie federali, ma ha avvertito che, se la società non collaborerà alla transizione, userà "il pieno potere della presidenza per farla rispettare, con gravi conseguenze civili e penali".
Al centro della disputa c'è il rifiuto di Anthropic di concedere al Pentagono accesso illimitato al suo modello Claude. L'azienda ha posto due condizioni invalicabili: il sistema non potrà essere usato per la sorveglianza di massa dei cittadini americani, né per alimentare armi letali completamente autonome, cioè capaci di colpire senza supervisione umana. "Usare questi sistemi per la sorveglianza di massa è incompatibile con i valori democratici", ha dichiarato il fondatore e amministratore delegato Dario Amodei, che aveva incontrato Hegseth nei giorni precedenti. Amodei ha anche sostenuto che i sistemi di IA di ultima generazione non sono ancora abbastanza affidabili per controllare armi letali in autonomia, e che "armi completamente autonome devono essere gestite con le dovute garanzie, che oggi non esistono".
Il Pentagono ha respinto questa posizione, sostenendo di dover poter utilizzare ciò che acquista per "qualsiasi uso lecito", senza limitazioni imposte dall'azienda produttrice. Hegseth ha attaccato Amodei dopo la scadenza dell'ultimatum, accusandolo di volersi "arrogare un potere di veto sulle decisioni operative dell'esercito americano". Il sottosegretario alla Difesa Emil Michael si è spinto ancora oltre, definendo Amodei "un bugiardo con un complesso di Dio" in una serie di messaggi su X.
Anthropic aveva già un contratto da 200 milioni di dollari con il governo americano per "far avanzare l'uso responsabile dell'IA nelle operazioni di difesa", ed era stata la prima azienda del settore a ricevere l'autorizzazione a operare sulle reti classificate del governo, tramite un accordo con Amazon. Il provvedimento di Hegseth potrebbe rappresentare una minaccia esistenziale per l'azienda, perché chiunque voglia mantenere rapporti commerciali con il Pentagono potrebbe essere costretto a rinunciare ai suoi prodotti.
L'azienda ha risposto con un comunicato in cui ha annunciato l'intenzione di ricorrere in giudizio contro la designazione di rischio per la supply chain. "Questa designazione sarebbe giuridicamente infondata e creerebbe un pericoloso precedente per qualsiasi azienda americana che tratta con il governo", si legge nella nota. "Nessuna intimidazione o punizione da parte del Dipartimento della Guerra cambierà la nostra posizione".
Esperti legali e del settore hanno criticato duramente la mossa dell'amministrazione. Jessica Tillipman, esperta di contratti governativi e intelligenza artificiale alla George Washington University, ha dichiarato al New York Times che il Pentagono sta trasformando "uno strumento pensato per la sicurezza nazionale in una leva per fini commerciali". Dean Ball, ex consigliere di Trump per l'intelligenza artificiale, ha definito la situazione "il giorno più buio nella storia del business americano" e ha aggiunto che la designazione di rischio per la supply chain "trasforma ciò che dovrebbe essere uno strumento di sicurezza nazionale in un mezzo di pressione commerciale". Franklin Turner, avvocato specializzato in contratti governativi, ha descritto la misura a Reuters come "l'equivalente contrattuale di una guerra nucleare".
Sul fronte politico, diversi senatori democratici si sono schierati dalla parte di Anthropic. Mark Warner, senatore della Virginia e membro di vertice della Commissione Intelligence del Senato, ha dichiarato che le azioni di Trump e Hegseth "sollevano seri interrogativi su se le decisioni di sicurezza nazionale siano guidate dall'analisi o da considerazioni politiche".
Nel settore tecnologico, circa 400 dipendenti di Google e OpenAI hanno firmato una lettera aperta di sostegno ad Anthropic, esortando le rispettive aziende a non cedere alle stesse pressioni del Pentagono. Poche ore dopo, però, il fondatore di OpenAI Sam Altman ha annunciato un accordo con il Dipartimento della Difesa per il dispiegamento dei modelli della sua azienda sulle reti classificate. Altman ha scritto su X che l'accordo include garanzie contro la sorveglianza di massa e a favore della supervisione umana nell'uso delle armi autonome, principi che sembrano sostanzialmente analoghi a quelli difesi da Anthropic. Non è chiaro se e in che misura le condizioni dell'accordo con OpenAI differiscano da quelle rifiutate al Pentagono nel caso Anthropic.
Il New York Times ha riferito che il Pentagono starebbe valutando di passare a Grok, il modello di intelligenza artificiale sviluppato da xAI, l'azienda di Elon Musk, già pronto per essere deploiato sulle reti classificate. Tuttavia, funzionari americani attuali ed ex lo considerano un prodotto inferiore rispetto a Claude, e il passaggio richiederebbe tempo, causando inevitabili interruzioni operative, in particolare nell'analisi delle comunicazioni intercettate dalla National Security Agency e nel lavoro degli analisti della Central Intelligence Agency.