Trump accelera l'intelligenza artificiale nel governo federale

Le agenzie federali statunitensi hanno lanciato centinaia di nuovi progetti di intelligenza artificiale nell'ultimo anno, molti in settori sensibili come sicurezza, immigrazione e sanità.

Trump accelera l'intelligenza artificiale nel governo federale

L'amministrazione Trump sta accelerando l'adozione dell'intelligenza artificiale in tutto il governo federale. Ad aprile la Casa Bianca ha ordinato a ogni agenzia di implementare l'IA, dichiarando che il governo non imporrà più restrizioni burocratiche sull'uso di questa tecnologia americana innovativa. Il risultato è stato immediato: secondo un'analisi del Washington Post al momento ci sono 2.987 progetti attivi di intelligenza artificiale, rispetto ai 1.684 dell'anno precedente.

Queste applicazioni vanno ben oltre l'automazione di compiti di routine. Le agenzie governative stanno integrando l'IA in funzioni centrali e delicate: forze dell'ordine, immigrazione e assistenza sanitaria. Il Dipartimento della Sicurezza Nazionale ha adottato strumenti di riconoscimento facciale più sofisticati. L'FBI ha acquistato sistemi per analizzare enormi quantità di immagini e testi per generare piste investigative. Il Dipartimento degli Affari dei Veterani sta sviluppando un programma per prevedere se un veterano potrebbe tentare il suicidio.

Il piano d'azione dell'amministrazione Trump sull'intelligenza artificiale è esplicito: "Dobbiamo costruire, costruire, costruire". La Casa Bianca ha revocato le cautele dell'amministrazione Biden e ha ordinato alle agenzie di eliminare qualsiasi ostacolo burocratico che possa rallentare l'adozione dell'IA. Centinaia di questi progetti sono classificati come "ad alto impatto", il che significa che vengono usati come base principale per prendere decisioni significative o hanno implicazioni per i diritti delle persone o la loro sicurezza, secondo gli standard federali.

L'immigrazione rappresenta un settore chiave per l'uso dell'IA. Il Dipartimento della Sicurezza Nazionale ha divulgato 151 casi d'uso che menzionano immigrazione o frontiera. L'agenzia per l'immigrazione e le dogane ha aggiunto nuove funzioni di riconoscimento facciale, tra cui l'app Mobile Fortify per scansionare i volti delle persone sul campo. Da giugno usa anche un sistema di IA generativa della società di difesa Palantir che esamina documenti scritti a mano come fedine penali e mandati per estrarre automaticamente indirizzi e aiutare le operazioni di espulsione. Il sistema si chiama ELITE ed è progettato per non servire come base primaria per azioni di applicazione della legge, secondo l'agenzia, che afferma che gli agenti rivedono manualmente i dati prima di prendere decisioni.

Un altro sistema Palantir aiuta a esaminare rapidamente le segnalazioni ricevute dall'agenzia, riassumendo e categorizzando ogni suggerimento in qualsiasi lingua venga presentato. Il Dipartimento della Sicurezza Nazionale ha dichiarato in precedenza che l'uso di varie forme di tecnologia a supporto delle indagini aiuta nell'arresto di membri di bande criminali, pedofili, assassini e trafficanti di droga, rispettando al contempo le libertà civili e gli interessi di privacy.

Il Dipartimento della Giustizia ha divulgato diversi strumenti progettati per generare piste per gli investigatori, incluso un sistema di riconoscimento facciale all'FBI e un altro per dare priorità alle segnalazioni che arrivano agli uffici in tutto il paese. Molte descrizioni del dipartimento sono però vaghe: il risultato di uno strumento dell'FBI è descritto semplicemente come "testo". Valerie Wirtschafter, ricercatrice del think tank Brookings con sede a Washington, ha dichiarato al Washington Post che la mancanza di dettagli in alcune divulgazioni delle agenzie rende difficile valutare pienamente alcuni degli usi più sensibili dell'IA.

Il Dipartimento degli Affari dei Veterani ha elencato più usi ad alto impatto di qualsiasi altra agenzia: 174 strumenti in sviluppo o operativi per rinnovare l'assistenza sanitaria e i benefici. Il dipartimento sta sviluppando assistenti di IA per preparare i pazienti alla chirurgia, usare la visione artificiale per misurare con maggiore precisione le ferite e identificare potenziali rischi di suicidio che i medici potrebbero aver perso. Un altro sistema è progettato per aiutare i veterani a richiedere i loro benefici analizzando grandi quantità di dati per fornire raccomandazioni personalizzate. Pete Kasperowicz, portavoce del dipartimento, ha dichiarato al Washington Post che questi quattro sistemi sono ancora in fase di valutazione e non sono stati testati o implementati. Ha aggiunto che il dipartimento usa l'IA solo come strumento di supporto, lasciando le decisioni finali su assistenza sanitaria e benefici al personale.

Chris Macinkowicz, funzionario di Veterans of Foreign Wars, un gruppo di servizio, ha dichiarato al Washington Post che sebbene l'uso dell'IA da parte del dipartimento prometta di aiutare l'agenzia a servire milioni di veterani in modo più efficiente, deve essere attentamente supervisionato. Ha sottolineato che l'esperienza ha dimostrato che l'IA può essere uno strumento prezioso ma non è infallibile, e il giudizio umano è essenziale per garantire accuratezza, equità e responsabilità in decisioni che hanno un impatto diretto e duraturo sui veterani e le loro famiglie.

Il Dipartimento della Salute e dei Servizi Umani ha divulgato altri 89 progetti collegati all'assistenza medica, tra cui l'uso dell'IA per supervisionare studi clinici e monitorare la disponibilità di vaccini. Molti usi governativi sono simili a quelli disponibili al pubblico generale. Le agenzie gestiscono almeno 180 chatbot progettati non solo per aiutare i dipendenti federali a completare compiti banali come programmare viaggi e ottenere supporto informatico, ma anche per supportarli in lavori più delicati come comprendere complessi regolamenti interni.

Il Pentagono è esentato dal processo di divulgazione, ma altri documenti governativi mostrano come stia accelerando aggressivamente la sperimentazione dell'IA. Il segretario alla Difesa Pete Hegseth ha ordinato ai funzionari di evitare di essere ostacolati da eccessive preoccupazioni sui rischi in un memo emesso il mese scorso. I futuri contratti di IA con i fornitori devono consentire "qualsiasi uso legale", ha scritto, senza ulteriori vincoli. Il memo afferma che è necessario eliminare gli ostacoli alla condivisione dei dati e affrontare i compromessi sui rischi come se si fosse in guerra. Il Pentagono ha comunicato ai fornitori nelle scorse settimane che sta cercando di acquisire sistemi di IA "agentici" all'avanguardia che mostrano capacità decisionali e agenzia simile a quella umana per le forze speciali d'élite. Un potenziale uso di tali sistemi è valutare vari vincoli che regolano quando le unità possono iniziare o continuare il combattimento e il rischio di uccidere o ferire civili.

Gli scienziati governativi stanno sperimentando l'uso dell'IA per risolvere problemi in centinaia di aree di nicchia, tra cui otto progetti relativi a balene e delfini. Alcuni alla National Oceanic and Atmospheric Administration stanno lavorando al rilevamento automatico degli sbuffi delle balene, parte di uno sforzo di monitoraggio della popolazione. Altri 49 progetti usano l'IA per valutare immagini satellitari e aeree per rilevare foche del ghiaccio, tracciare specie invasive, stimare i raccolti di soia e localizzare torri di raffreddamento che potrebbero essere vettori per la diffusione della legionellosi.

Gli archivisti federali hanno anche utilizzato l'IA per rendere la storia della nazione più accessibile. Jim Byron, consulente senior della National Archives and Records Administration, ha dichiarato al Washington Post che l'agenzia ha lanciato il mese scorso uno strumento basato sull'IA per consentire al pubblico di cercare tra documenti appena digitalizzati, inclusi quelli relativi agli assassinii del presidente John F. Kennedy e Martin Luther King Jr, così come la scomparsa dell'aviatrice pioniera Amelia Earhart.

L'enfasi dell'amministrazione sulla velocità potrebbe avvenire a scapito della sicurezza nell'uso di questi strumenti. Suresh Venkatasubramanian, professore di informatica alla Brown University che ha lavorato sulla sicurezza dell'IA nell'amministrazione Biden, ha dichiarato al Washington Post che l'IA potrebbe produrre informazioni errate portando i funzionari a prendere decisioni sbagliate, o uno strumento di riconoscimento facciale potrebbe portare qualcuno a essere inserito erroneamente in una lista di sorveglianza. Ha sostenuto che i funzionari in precedenza ponevano maggiore enfasi sulla supervisione e la gestione dei rischi, aggiungendo che non è il caso d'uso in sé a sollevare interrogativi, ma se ci sono le protezioni necessarie per usare strumenti che possono essere molto imprecisi e potenti nel modo giusto.

Focus America non rappresenta una testata giornalistica in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n° 62 del 7.03.2001.