California approva la prima legge sulla sicurezza dell'intelligenza artificiale

La normativa firmata dal governatore Newsom obbliga le grandi aziende tecnologiche a divulgare i protocolli di sicurezza e protegge chi denuncia comportamenti pericolosi dei sistemi di IA. È il primo provvedimento del genere negli Stati Uniti.

California approva la prima legge sulla sicurezza dell'intelligenza artificiale
Photo by Jonathan Kemper / Unsplash

La California ha approvato la prima legge sulla sicurezza dell'intelligenza artificiale negli Stati Uniti. Il governatore Gavin Newsom ha firmato il provvedimento lunedì 29 settembre, creando uno dei sistemi di regole più severi del paese su questa tecnologia.

La legge si chiama Transparency in Frontier Artificial Intelligence Act, o SB 53. Obbliga le aziende più avanzate nel campo dell'intelligenza artificiale a rendere pubblici i protocolli di sicurezza usati nello sviluppo delle loro tecnologie. Le aziende devono anche segnalare i rischi maggiori che i loro sistemi possono creare. Il provvedimento rafforza le protezioni per i dipendenti che avvertono il pubblico sui potenziali pericoli della tecnologia.

Il senatore statale Scott Wiener, democratico di San Francisco, ha proposto questa legislazione. Secondo Wiener, la legge serve a colmare un vuoto nella protezione dei consumatori dai possibili danni dell'intelligenza artificiale. "Questa è una legge rivoluzionaria che promuove sia l'innovazione che la sicurezza. Le due cose non si escludono a vicenda, anche se spesso vengono messe l'una contro l'altra", ha dichiarato il senatore.

Un percorso difficile

Il cammino verso l'approvazione è stato complicato. La legge coinvolge alcuni dei nomi più importanti della tecnologia. Tra questi ci sono l'investitore Ron Conway, grande finanziatore del partito democratico, e i colossi della Silicon Valley come Meta, Amazon e Google. Anche le aziende di intelligenza artificiale Anthropic e OpenAI hanno partecipato ai negoziati.

L'anno scorso Newsom aveva bocciato una prima versione più ambiziosa di questa legge proposta dallo stesso Wiener. Quella versione prevedeva test obbligatori di sicurezza e richiedeva alle aziende di creare un interruttore di emergenza per bloccare la tecnologia in caso di problemi.

Dopo il veto, Newsom ha creato un gruppo di esperti per studiare raccomandazioni sulla sicurezza dell'intelligenza artificiale. Questo gli ha permesso di guidare una legislazione più moderata e di rivendicare una vittoria senza allontanare il settore tecnologico. Per Newsom, probabile candidato alla presidenza nel 2028, mantenere buoni rapporti con i ricchi donatori della tecnologia era fondamentale.

I negoziati dell'estate

I negoziati sono stati intensi. Google, Meta e Amazon hanno lavorato insieme come un blocco unico, secondo persone vicine alle trattative. La società di venture capital Andreessen Horowitz ha rappresentato le piccole startup tecnologiche. OpenAI e Anthropic, due dei principali laboratori di intelligenza artificiale di San Francisco, hanno seguito strategie diverse.

Le aziende hanno discusso fino all'ultimo minuto su chi sarebbe stato incluso nella legge. Hanno contrattato sulle definizioni e sui requisiti di divulgazione. Una persona familiare con i negoziati ha descritto i giorni finali come "un rodeo di capre", mentre diverse versioni del provvedimento andavano avanti e indietro.

Wiener ha interrotto i negoziati mentre si avvicinava la mezzanotte del 4 settembre. Si è rivolto invece all'ufficio del governatore per definire le modifiche finali. La sera tarda del 5 settembre, Wiener ha rilasciato gli emendamenti finali. Le modifiche hanno ritoccato quali modelli di intelligenza artificiale sarebbero stati coperti dalla legge e hanno incluso riferimenti a standard nazionali e internazionali.

Il sostegno di Anthropic

Gli emendamenti sono stati sufficienti per Anthropic, che l'8 settembre è uscita ufficialmente a sostegno della legge. Il CEO di Anthropic, Dario Amodei, ha dichiarato che il provvedimento non era perfetto, ma che il tempo stava finendo per richiedere alle aziende di pubblicare le loro linee guida di sicurezza prima che i loro sistemi diventassero ancora più potenti e redditizi.

Jack Clark, co-fondatore e responsabile delle politiche di Anthropic, ha affermato che la legge ha "misure di protezione pratiche che creano una reale responsabilità per come i sistemi di intelligenza artificiale potenti vengono sviluppati e distribuiti, il che a sua volta manterrà tutti più sicuri mentre continua la rapida accelerazione delle capacità dell'intelligenza artificiale".

Nessuna delle altre aziende coinvolte - Meta, Google o OpenAI - ha sostenuto il provvedimento. La Camera di Commercio e il gruppo di lobbying tecnologico TechNet hanno continuato a opporsi fino alla fine. Nelle prime ore del 13 settembre, giorno finale della sessione legislativa, Wiener ha presentato il suo provvedimento al Senato, che lo ha approvato facilmente con un voto di 29 a 8.

Cosa prevede la legge

La nuova legge si applica alle aziende che creano l'intelligenza artificiale più avanzata e che hanno ricavi annuali di almeno 500 milioni di dollari. Queste aziende devono rendere pubblico come hanno incorporato le migliori pratiche per la sicurezza, in linea con gli standard nazionali e internazionali.

Le aziende devono segnalare gli incidenti di sicurezza all'Office of Emergency Services dello stato. Gli incidenti critici vanno segnalati entro 15 giorni, o entro 24 ore se rappresentano un pericolo imminente. I rapporti sono confidenziali ed esenti da richieste di documenti pubblici.

La legge protegge i dipendenti che denunciano rischi significativi nelle aziende tecnologiche. Vieta le politiche che impediscono ai dipendenti di parlare e permette segnalazioni anonime. La California creerà anche un consorzio all'interno dell'Government Operations Agency dello stato per concentrarsi sulla ricerca e sviluppo di intelligenza artificiale "sicura, etica, equa e sostenibile".

Il provvedimento prevede inoltre la creazione di CalCompute, una piattaforma di calcolo cloud pubblica per promuovere un'intelligenza artificiale sicura ed etica. La piattaforma sarà implementata preferibilmente presso l'Università della California.

Le reazioni del settore

La legge ha diviso il settore tecnologico. Meta, OpenAI, Google e la società di venture capital Andreessen Horowitz hanno avvertito che le legislazioni statali metteranno troppo peso sulle aziende di intelligenza artificiale. Queste aziende preferiscono una legislazione federale che impedisca agli stati di approvare un mosaico di regole diverse.

Chris Lehane, responsabile degli affari globali di OpenAI, ha dichiarato che la legge "traccia un percorso più chiaro per armonizzare gli standard della California con quelli federali". Ha aggiunto che OpenAI sostiene "un approccio federale unico piuttosto che un mosaico di leggi statali".

Collin McCune, responsabile degli affari governativi di Andreessen Horowitz, ha espresso preoccupazioni sulla frammentazione: "Il pericolo maggiore di SB 53 è che crea un precedente per cui gli stati, piuttosto che il governo federale, prendono l'iniziativa nel governare il mercato nazionale dell'intelligenza artificiale, creando un mosaico di 50 regimi di conformità che le startup non hanno le risorse per gestire".

David Grossman, vicepresidente per le politiche della Consumer Technology Association, un gruppo commerciale, ha dichiarato: "È una china scivolosa. Oggi è la California, il mese prossimo è New York, tra qualche mese è il Texas e così via".

Quest'anno 38 stati hanno approvato o promulgato circa 100 regolamenti sull'intelligenza artificiale, secondo la National Conference of State Legislatures.

Il peso della California

La California ha un peso enorme nel settore tecnologico. Con quasi 40 milioni di residenti e un'economia da 4.100 miliardi di dollari, sarebbe la quarta economia mondiale se fosse un paese. Lo stato ospita 32 delle 50 principali aziende di intelligenza artificiale del mondo. Nel 2024, il 15,7% di tutte le offerte di lavoro nell'intelligenza artificiale negli Stati Uniti erano in California, quasi il doppio del Texas con l'8,8% e molto più avanti di New York con il 5,8%. Più della metà dei finanziamenti di venture capital globali per le startup di intelligenza artificiale sono andati ad aziende della Bay Area.

Google, Apple e Nvidia, tre delle quattro aziende al mondo valutate oltre 3 mila miliardi di dollari, hanno sede in California. La quarta, Microsoft, ha sede nello stato di Washington.

"La California ha dimostrato che possiamo stabilire regolamenti per proteggere le nostre comunità assicurando allo stesso tempo che l'industria dell'intelligenza artificiale in crescita continui a prosperare", ha dichiarato Newsom. "Questa legislazione trova quell'equilibrio".

Newsom ha firmato la legge solo pochi giorni dopo, esattamente un anno dopo aver posto il veto al primo tentativo di Wiener. Il senatore ha potuto finalmente dichiarare vittoria: "Con questa legge, la California si fa avanti, ancora una volta, come leader globale sia nell'innovazione tecnologica che nella sicurezza".

La California è stata in passato un apripista nelle regolamentazioni tecnologiche, approvando leggi sulla privacy e sulla sicurezza dei bambini mentre il Congresso è rimasto bloccato per anni in dibattiti su proposte simili. La legge californiana sull'intelligenza artificiale potrebbe stabilire un nuovo standard per gli Stati Uniti e influenzare altri stati a seguire l'esempio, proprio come è successo in passato con le leggi ambientali e sulla privacy.

Focus America non rappresenta una testata giornalistica in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n° 62 del 7.03.2001.