Come l'intelligenza artificiale sta cambiando i conflitti americani

L'attacco all'Iran ha segnato un salto di qualità nell'uso militare dell'IA, ma incidenti nei test e tensioni con le aziende tecnologiche rivelano un sistema ancora fragile

Come l'intelligenza artificiale sta cambiando i conflitti americani
Defense Media Activity - Air Force

Il bombardamento americano dell'Iran, iniziato il 27 febbraio, ha rappresentato il più grande banco di prova per l'uso dell'intelligenza artificiale in un conflitto armato statunitense. Grazie a un sistema di comando chiamato Maven Smart System, le forze americane hanno colpito mille obiettivi nelle prime 24 ore, circa il doppio della campagna "shock and awe" in Iraq nel 2003. In dieci giorni gli obiettivi colpiti sono saliti a cinquemila, secondo il Comando Centrale degli Stati Uniti (United States Central Command, Centcom). La campagna ha segnato anche la prima volta in cui gli Stati Uniti hanno usato droni semi-autonomi a basso costo contro obiettivi di combattimento. Il comandante delle forze americane nella regione li ha definiti "indispensabili".

Lo racconta la giornalista di Bloomberg Katrina Manson, in un lungo estratto del suo libro "Project Maven", che ricostruisce un decennio di sforzi del Pentagono per integrare l'intelligenza artificiale negli strumenti bellici. L'obiettivo dichiarato dei militari è ambizioso: arrivare a identificare e selezionare mille obiettivi non in un giorno, ma in una sola ora. Il Pentagono sta anche lavorando per installare sistemi di IA direttamente nei droni d'attacco, in modo che possano navigare, individuare bersagli e colpire anche quando le comunicazioni wireless sono interrotte.

Non è chiaro, almeno per chi non dispone di autorizzazioni di sicurezza, come esattamente l'IA sia stata impiegata in Iran. Timothy Hawkins, portavoce del Centcom, ha dichiarato a Bloomberg che l'intelligenza artificiale viene usata per generare "punti di interesse" e aiutare il personale a prendere decisioni. "In sintesi, questi strumenti aiutano i leader, esseri umani, a prendere decisioni più intelligenti e più rapide", ha detto. Secondo funzionari iraniani, oltre 1.300 civili sono stati uccisi nei bombardamenti, tra cui più di 175 in una scuola femminile. Secondo notizie di stampa, quell'attacco sarebbe stato condotto con un missile Tomahawk basato su informazioni di intelligence obsolete. Il Pentagono non ha precisato se l'IA fosse coinvolta.

Lo stesso giorno dell'attacco all'Iran, l'amministrazione Trump ha preso una decisione senza precedenti nei confronti di Anthropic, la startup da 380 miliardi di dollari che produce i prodotti di intelligenza artificiale a marchio Claude. Il governo l'ha dichiarata un rischio per la catena di approvvigionamento, inserendola di fatto in una lista nera, come se fosse un'azienda legata all'esercito cinese. Anthropic aveva importanti contratti con il Pentagono per servizi di IA, ma si era rifiutata di consentire l'uso della sua tecnologia per la sorveglianza di massa sul territorio nazionale o per armi completamente autonome. Il presidente Trump l'ha definita su un social network una "azienda di IA della sinistra radicale". Il segretario alla Difesa Pete Hegseth, in un post su X, ha descritto la posizione di Anthropic come un tentativo di "prendere il potere di veto sulle decisioni operative dell'esercito degli Stati Uniti". Lo stesso giorno, OpenAI ha annunciato un accordo con il Dipartimento della Difesa per fornire gli stessi servizi. Anthropic ha fatto causa al governo contro l'inserimento in lista nera e ha ricevuto il sostegno pubblico di decine di scienziati e ricercatori di IA di OpenAI e Google.

L'amministratore delegato di Anthropic, Dario Amodei, ha sostenuto che i suoi sistemi di IA non sono ancora pronti per produrre armi completamente autonome sufficientemente affidabili da essere sicure, e che l'azienda non intende collaborare con il Pentagono su questa tecnologia in questo momento.

La corsa americana all'IA militare è iniziata nel 2017 con il lancio di Project Maven, un programma per creare algoritmi di visione artificiale in grado di analizzare video dei droni e trasformare enormi quantità di dati in "intelligence operativa a velocità". Uno dei primi partner fu Google, ma quando la collaborazione divenne pubblica, migliaia di dipendenti si ribellarono e l'azienda decise di non rinnovare il contratto. Il sistema Maven Smart System è stato poi costruito da Palantir, con tecnologia di Amazon, Microsoft e della startup Clarifai. Oggi ogni comando militare americano nel mondo lo usa, e l'anno scorso anche la NATO ha iniziato a utilizzarne una versione.

Ma il Pentagono voleva di più: droni capaci di operare senza connessione con il quartier generale, in grado di volare, individuare obiettivi e colpire senza intervento umano. Dal 2022 il team di Maven ha raccolto enormi quantità di immagini di navi cinesi nel Pacifico per addestrare gli algoritmi. L'estate scorsa, alti funzionari della difesa, compreso il presidente del Joint Chiefs of Staff, hanno assistito a dimostrazioni video in cui i modelli identificavano automaticamente cacciatorpediniere cinesi. "Stiamo praticamente osservando l'esercito cinese in continuazione per ottenere dati di addestramento per l'IA", ha detto un funzionario della difesa a Bloomberg.

La CIA ha testato segretamente versioni rudimentali di sistemi d'arma autonomi nel Mar Nero, al largo dell'Ucraina. Nel luglio 2024 il Pentagono temeva che la copertura fosse saltata quando una moto d'acqua carica di esplosivo si arenò sulla costa turca, dall'altra parte del Mar Nero. Tra i programmi segreti c'era anche Whiplash, un progetto per trasformare 600 moto d'acqua in robot armati di bombe.

L'articolo rivela anche un incidente significativo durante un test nel giugno 2025 in California. Un'imbarcazione autonoma del programma Replicator, il piano per schierare migliaia di droni, attivò per errore la modalità autonoma mentre era ancora legata a un rimorchiatore. Il drone iniziò a muoversi in modo erratico, facendo capovolgere il rimorchiatore e gettando il capitano in acqua. Un'indagine stabilì che un operatore a terra aveva inavvertitamente disattivato il blocco di sicurezza, un classico errore umano. Il capitano fu tratto in salvo senza ferite gravi, ma l'incidente dimostrò quanto il programma fosse ancora lontano dalla maturità operativa. Il programma Replicator consegnò centinaia di droni entro la scadenza di agosto, ma restò lontano dall'obiettivo iniziale di migliaia di unità.

Con l'arrivo di Trump, Replicator è stato ribattezzato Defense Autonomous Warfare Group (DAWG). A gennaio il DAWG ha lanciato un concorso da 100 milioni di dollari per creare strumenti che usino modelli linguistici di grandi dimensioni per tradurre istruzioni verbali dei comandanti in ordini per sciami di droni autonomi. Anche Anthropic ha partecipato al bando, ma la sua offerta non è stata selezionata. Tra i finalisti ci sono due proposte che coinvolgono tecnologia di OpenAI, oltre a Palantir e SpaceX di Elon Musk. Le fasi successive del concorso prevedono lo sviluppo della capacità di individuare obiettivi e, infine, il percorso completo "dal lancio alla terminazione" di un drone killer. Jack Shanahan, il generale a tre stelle in pensione che aveva diretto Project Maven, ha dichiarato a Bloomberg che nessun modello linguistico di grandi dimensioni, nella sua forma attuale, dovrebbe essere preso in considerazione per un sistema d'arma letale completamente autonomo. "L'eccessiva dipendenza da essi in questa fase è una ricetta per la catastrofe", ha detto.

Il governo si aspetta che i concorrenti selezionati consegnino i risultati entro l'estate.

Focus America non rappresenta una testata giornalistica in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n° 62 del 7.03.2001.