L'umanità deve svegliarsi di fronte ai pericoli dell'intelligenza artificiale, dice il capo di Anthropic

Dario Amodei pubblica un saggio di 20.000 parole sui rischi catastrofici delle tecnologie avanzate che potrebbero emergere nei prossimi anni

L'umanità deve svegliarsi di fronte ai pericoli dell'intelligenza artificiale, dice il capo di Anthropic
Stuart Isett/Fortune

L'umanità deve prepararsi a fronteggiare rischi potenzialmente catastrofici legati allo sviluppo dell'intelligenza artificiale nei prossimi anni. L'avvertimento arriva da Dario Amodei, amministratore delegato di Anthropic, una delle aziende leader nel settore che compete direttamente con OpenAI. In un saggio di quasi 20.000 parole pubblicato lunedì, Amodei delinea i pericoli che potrebbero materializzarsi se la tecnologia continuerà a svilupparsi senza adeguati controlli.

"L'umanità sta per ricevere un potere quasi inimmaginabile ed è profondamente incerto se i nostri sistemi sociali, politici e tecnologici possiedano la maturità per gestirlo", scrive Amodei nel documento intitolato The Adolescence of Technology. Il capo di Anthropic, azienda creatrice dell'assistente Claude, sostiene che ci troviamo di fronte a "un passaggio cruciale, turbolento e inevitabile, che metterà alla prova chi siamo come specie".

Il saggio rappresenta un monito particolarmente significativo perché proviene da uno degli imprenditori più influenti del settore, la cui azienda è in prima linea nello sviluppo di sistemi di intelligenza artificiale sempre più avanzati. Anthropic è attualmente in trattative con gruppi che includono Microsoft, Nvidia e investitori come il fondo sovrano singaporiano GIC, Coatue e Sequoia Capital per una raccolta fondi da 25 miliardi di dollari o più, con una valutazione complessiva dell'azienda pari a 350 miliardi di dollari.

Secondo Amodei, l'arrivo di quella che definisce "intelligenza artificiale potente" è probabile entro pochi anni. Si tratterebbe di sistemi "molto più capaci di qualsiasi premio Nobel, statista o tecnologo". Per rendere l'idea della portata del fenomeno, Amodei propone un'analogia: immaginate che nel 2027 si materializzi letteralmente un "paese di geni" da qualche parte nel mondo, con 50 milioni di persone molto più capaci di qualsiasi vincitore del Nobel. Poiché i sistemi di intelligenza artificiale possono operare centinaia di volte più velocemente degli esseri umani, questo "paese" avrebbe un vantaggio temporale rispetto a tutti gli altri: per ogni azione cognitiva che possiamo compiere, questo paese può compierne dieci.

Tra i rischi principali elencati da Amodei figura la possibilità che singoli individui sviluppino armi biologiche capaci di uccidere milioni di persone o, "nel peggiore dei casi, distruggere tutta la vita sulla Terra". Il riferimento è esplicito: "Il disturbato solitario che può perpetrare una sparatoria in una scuola, ma probabilmente non può costruire un'arma nucleare o rilasciare una piaga, sarà ora elevato al livello di capacità del virologo con dottorato di ricerca", scrive Amodei. L'amministratore delegato di Anthropic menziona come esempio l'attacco del movimento religioso Aum Shinrikyo che nel 1995 rilasciò gas nervino sarin in una metropolitana di Tokyo, causando 14 morti e numerosi feriti.

Il saggio affronta anche il rischio che l'intelligenza artificiale "diventi autonoma e sopraffaccia l'umanità" o che possa essere sfruttata da autocrati e altri attori malintenzionati, portando a "una dittatura totalitaria globale". Amodei esprime particolare preoccupazione per la Cina, secondo solo agli Stati Uniti nelle capacità di intelligenza artificiale e il paese con maggiore probabilità di superare gli Stati Uniti in questo campo. "L'autoritarismo potenziato dall'intelligenza artificiale mi terrorizza", scrive.

Un passaggio del saggio contiene un riferimento velato alla controversia riguardante Grok AI di Elon Musk. Amodei scrive che "alcune aziende di intelligenza artificiale hanno mostrato una preoccupante negligenza verso la sessualizzazione dei minori nei modelli attuali, il che mi fa dubitare che mostreranno l'inclinazione o la capacità di affrontare i rischi di autonomia nei modelli futuri".

L'amministratore delegato di Anthropic solleva anche il tema della massiccia perdita di posti di lavoro e della "concentrazione di potere economico" e ricchezza nella Silicon Valley come conseguenza dell'intelligenza artificiale. Amodei ritiene che l'intelligenza artificiale potrebbe interrompere il 50 per cento dei lavori d'ufficio iniziali nell'arco di uno o cinque anni. "Questa è la trappola: l'intelligenza artificiale è così potente, un premio così luccicante, che è molto difficile per la civiltà umana imporre qualsiasi restrizione", aggiunge.

Le questioni di sicurezza legate all'intelligenza artificiale, come le armi biologiche, le armi autonome e gli attori statali malevoli, hanno avuto un ruolo di primo piano nel dibattito pubblico nel 2023, in parte grazie agli avvertimenti di leader come Amodei. Quell'anno il governo britannico organizzò un vertice sulla sicurezza dell'intelligenza artificiale a Bletchley Park, dove paesi e laboratori concordarono di lavorare insieme per contrastare questi rischi. Un incontro successivo è previsto in India a febbraio.

Tuttavia, secondo Amodei, le decisioni politiche sull'intelligenza artificiale sono sempre più guidate dal desiderio di cogliere le opportunità offerte dalla nuova tecnologia piuttosto che mitigarne i rischi. "Questa esitazione è sfortunata, poiché la tecnologia stessa non si preoccupa di ciò che è di moda, e siamo considerevolmente più vicini al pericolo reale nel 2026 di quanto lo fossimo nel 2023", scrive.

Amodei è stato uno dei primi dipendenti di OpenAI ma ha lasciato l'azienda per co-fondare Anthropic nel 2020 dopo scontri con Sam Altman sulla direzione di OpenAI e sui sistemi di protezione dell'intelligenza artificiale. Il contrasto con l'amministrazione del presidente Trump emerge anche dal recente conflitto con David Sacks, nominato responsabile per l'intelligenza artificiale e le criptovalute. Amodei ha inoltre paragonato i piani dell'amministrazione di vendere chip avanzati di intelligenza artificiale alla Cina alla vendita di armi nucleari alla Corea del Nord.

Trump ha firmato un ordine esecutivo il mese scorso per ostacolare gli sforzi a livello statale di regolamentare le aziende di intelligenza artificiale e ha pubblicato un piano d'azione sull'intelligenza artificiale lo scorso anno che delinea progetti per accelerare l'innovazione statunitense. Amodei conclude il saggio con un appello all'azione rivolto a individui facoltosi, ai quali attribuisce "l'obbligo di aiutare a risolvere questo problema". Gli anni che abbiamo davanti, avverte, "saranno impossibilmente difficili, chiederanno più di quanto pensiamo di poter dare".

Focus America non rappresenta una testata giornalistica in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n° 62 del 7.03.2001.