Anthropic fa causa all'amministrazione Trump
L'azienda produttrice di Claude sostiene che il governo abbia violato il Primo emendamento punendola per le sue posizioni sulla sicurezza dell'IA. La Casa Bianca preparerebbe un ordine esecutivo per rimuovere i suoi prodotti da tutti gli enti federali.
Anthropic ha presentato due ricorsi federali contro l'amministrazione Trump, accusando il Pentagono di aver agito illegalmente mettendola in una lista nera per ragioni di sicurezza nazionale. La mossa segue il rifiuto dell'azienda di permettere che la sua intelligenza artificiale Claude venga usata per armi autonome letali o per sorvegliare i cittadini americani su larga scala.
Il Dipartimento della Difesa aveva classificato Anthropic come un "rischio per la catena di approvvigionamento", una designazione che impedisce ai fornitori del governo federale di usare i suoi prodotti. Secondo l'azienda, si tratta di una ritorsione per le sue posizioni pubbliche sulla sicurezza dell'IA: "Il governo federale ha punito un importante sviluppatore di IA d'avanguardia per essersi attenuto alla sua posizione protetta su una questione di grande rilevanza pubblica", si legge nella denuncia citata da NPR.
I ricorsi, presentati presso il tribunale federale del Northern District of California e la corte d'appello federale di Washington, sostengono che l'amministrazione abbia violato il Primo emendamento della Costituzione, che garantisce la libertà di espressione, e abbia fatto un uso improprio della normativa sulla sicurezza della catena di approvvigionamento. Anthropic chiede a un giudice federale di bloccare l'applicazione della lista nera. "La Costituzione non consente al governo di usare il suo enorme potere per punire un'azienda per le sue posizioni tutelate dalla legge".
La disputa affonda le radici in un incontro avvenuto a febbraio tra il segretario alla Difesa Pete Hegseth e il CEO di Anthropic, Dario Amodei. Dopo quell'incontro, il presidente Trump aveva ordinato a tutti gli enti governativi di smettere immediatamente di usare i prodotti dell'azienda, definendo Claude un'IA "woke". Hegseth aveva poi formalizzato la classificazione come rischio per la catena di approvvigionamento.
La designazione è particolarmente significativa perché, fino ad ora, tale lista includeva solo aziende straniere, come il produttore cinese di apparati di telecomunicazione Huawei o la società russa di antivirus Kaspersky. Applicarla a un'azienda americana è ritenuto altamente insolito dagli esperti di sicurezza nazionale.
Anthropic precisa, nella denuncia, che dal 2024 collabora con appaltatori della sicurezza nazionale, come la società di analisi dei dati Palantir, per aiutare il governo in operazioni che comprendono "l'elaborazione rapida di dati complessi, l'identificazione di tendenze e il supporto alle decisioni in situazioni sensibili al fattore tempo". L'azienda sottolinea che Claude non è stato sviluppato per essere usato in sistemi d'arma letali senza supervisione umana, né per spiare i cittadini americani, e che un uso del genere rappresenterebbe un abuso della sua tecnologia.
Il Pentagono ha respinto l'idea che il conflitto riguardi armi letali o sorveglianza di massa, affermando che le aziende private non possono imporre limitazioni a come il governo usa la tecnologia in scenari come la guerra e le operazioni tattiche, e che tutti gli usi previsti sarebbero "leciti". Un portavoce del Dipartimento della Difesa ha dichiarato ad ABC News di non commentare i procedimenti legali.
Secondo Axios, che cita fonti a conoscenza della questione, la Casa Bianca starebbe preparando un ordine esecutivo per formalizzare la rimozione dei prodotti Anthropic da tutte le operazioni governative. L'ordine, secondo una fonte citata da Axios, potrebbe essere emesso nel giro di pochi giorni. Un funzionario della Casa Bianca ha dichiarato ad Axios che "qualsiasi annuncio di politica verrà direttamente dal presidente" e che "qualsiasi discussione su potenziali ordini esecutivi è speculazione".
Anthropic era la prima azienda di IA d'avanguardia ad aver ottenuto l'autorizzazione all'uso su reti classificate da parte del governo americano. Da quando è scoppiata la disputa, secondo NPR, il Pentagono ha aperto le reti classificate ai prodotti di xAI di Elon Musk e di ChatGPT di OpenAI. Stando a quanto riferito dal Wall Street Journal, e non confermato in modo indipendente da NPR, Claude sarebbe già stato usato in operazioni militari, inclusa quella che ha portato all'arresto del leader venezuelano Nicolás Maduro, oltre che per valutazioni di intelligence nel conflitto con l'Iran.
L'azienda, nella sua denuncia, sostiene di aver già subito perdite economiche irreversibili: diversi partner, clienti, fornitori di servizi cloud e investitori l'avrebbero contattata per chiedere chiarimenti, e alcuni clienti avrebbero domandato a quali condizioni potessero rescindere i contratti. Anthropic contesta anche i termini imposti per la rescissione dei contratti con il governo federale, definendoli abusivi.