I modelli AI Claude possono essere sfruttati per commettere reati gravi

L'azienda di intelligenza artificiale ha pubblicato un rapporto in cui riconosce che Claude Opus 4.5 e 4.6 presentano una "elevata suscettibilità" all'uso improprio, incluso il supporto allo sviluppo di armi chimiche. Il Ceo Dario Amodei avverte: rischio concreto di attacchi con milioni di vittime.

I modelli AI Claude possono essere sfruttati per commettere reati gravi

Anthropic ha riconosciuto, in un nuovo report sulla sicurezza dei propri prodotti, che i suoi modelli di intelligenza artificiale più avanzati possono mostrare vulnerabilità sfruttabili per scopi criminali, inclusi scenari legati all'uso di armi chimiche. L’ammissione ha un indubbio peso nel dibattito più generale sulla sicurezza dell’IA perché arriva direttamente da una delle aziende più influenti del settore.

Secondo quanto riporta il rapporto, i modelli Claude Opus 4,5 e 4,6 hanno evidenziato una “elevata suscettibilità” all’uso improprio in alcuni contesti informatici. Nel documento si citano anche casi in cui i modelli avrebbero fornito, in misura limitata, un supporto ritenuto “consapevole” a iniziative collegate allo sviluppo di armi chimiche ed ad altri crimini gravi.

Uno degli aspetti più delicati riguarda i comportamenti autonomi osservati in ambienti di test: in certe configurazioni sperimentali, parte dei rischi non deriverebbe da istruzioni esplicitamente malevole di un utente, ma da azioni intraprese dal modello stesso per perseguire un obiettivo assegnato. Anthropic descrive questi esiti come poco probabili, ma comunque non irrilevanti. In particolare, quando viene spinto a “ottimizzare in modo ossessivo” un compito specifico, Opus 4,6 risulterebbe più incline a manipolare o ingannare altri partecipanti rispetto ai modelli precedenti, sia della stessa Anthropic sia di altri sviluppatori.

L’allarme di Amodei

L'Amministratore Delegato di Anthropic, Dario Amodei, aveva già richiamato l’attenzione sui rischi per la sicurezza umana legati alle nuove tecnologie dell'intelligenza artificiale in un saggio pubblicato all’inizio del 2026, sostenendo che esiste “un rischio serio” di attacchi su larga scala con vittime potenzialmente “nell’ordine dei milioni o più”. Amodei ha anche osservato che, per via degli interessi economici e strategici in gioco, le aziende non hanno incentivi strutturali a essere pienamente trasparenti sui pericoli della tecnologia in oggetto.

Anthropic spiega che parte della fiducia nelle misure di sicurezza deriva dalla continuità: Opus 4,6, per addestramento e comportamento, resta vicino ai modelli precedenti già diffusi, senza segnali di condotte intenzionalmente dannose emerse su larga scala. Allo stesso tempo, l’azienda avverte che questa continuità potrebbe non valere in futuro — e che non è detto sia replicabile tra i diversi concorrenti.

Tra concorrenza e regole

Il tema della cooperazione tra aziende è emerso anche in un’intervista al World Economic Forum di Davos: Amodei e il CEO di Google DeepMind, Demis Hassabis, hanno indicato la necessità di ridurre la pressione competitiva per poter lavorare insieme e dare priorità alla sicurezza.

Sul fronte politico, Amodei si è mosso anche a Capitol Hill: secondo quanto riportato, ha sollecitato i legislatori americani a limitare la vendita di chip alla Cina ed ha discusso di sicurezza dell’intelligenza artificiale con membri del Senato, tra cui la senatrice democratica Elizabeth Warren.

Intanto il Future of Life Institute ha annunciato un investimento fino a 8 milioni di dollari per una campagna pubblicitaria nazionale a favore della regolamentazione dell'intelligenza artificiale, con lo slogan “proteggere ciò che è umano”. Nel dibattito restano però anche posizioni critiche: secondo alcuni osservatori, una parte dei leader del settore tenderebbe a enfatizzare i rischi dell’IA fuori controllo proprio per influenzare le regole in modo favorevole ai propri interessi.

Nel suo rapporto, comunque, Anthropic conclude che eventuali salti futuri nelle capacità dei modelli — vale a dire nuovi meccanismi di ragionamento o un impiego autonomo più esteso — potrebbero rendere superate le conclusioni attuali. Con sistemi sempre più rapidi e performanti, avverte l’azienda, è sempre più vitale avere sistemi di supervisione e governance robusti per ridurre la probabilità degli esiti peggiori.

Focus America non rappresenta una testata giornalistica in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n° 62 del 7.03.2001.