L'intelligenza artificiale di Musk ha parlato ossessivamente del “genocidio bianco” in Sudafrica
Per alcune ore, l’intelligenza artificiale integrata nel social X ha menzionato ripetutamente una teoria cara a Elon Musk e al presidente Trump, anche quando non sollecitata. Il sistema è stato successivamente corretto.
L'intelligenza artificiale Grok, sviluppato dal social X e di proprietà di Elon Musk, per un po' di ore ha inserito sistematicamente nelle proprie risposte riferimenti al cosiddetto “genocidio bianco” in Sudafrica, anche in contesti del tutto estranei all’argomento, in risposta a domande come sullo stipendio di un giocatore di baseball o su istruzioni per il cambio di software.
Il concetto evocato da Grok si riferisce a una tesi da tempo sostenuta da Musk e successivamente adottata anche dal presidente Donald Trump, secondo cui la popolazione bianca del Sudafrica, in particolare i discendenti dei coloni europei noti come afrikaner, sarebbe vittima di una campagna sistematica di violenze e omicidi. In questo contesto, Grok ha fatto riferimento ai casi reali di omicidi ai danni di agricoltori bianchi nel Paese, ma senza sostenere esplicitamente l’esistenza di un genocidio. Secondo quanto riportato dal sito The Verge, l’IA ha piuttosto presentato la questione come controversa.

Nonostante questa apparente prudenza, il tono insistente e fuori contesto delle risposte ha attirato l’attenzione degli utenti e degli osservatori del settore. Alcuni dei messaggi pubblicati da Grok sono stati successivamente cancellati e, nel giro di poche ore, il sistema è stato aggiornato per eliminare l’insistenza sull’argomento sudafricano. La vicenda ha riacceso il dibattito sulla capacità delle IA di trattare in modo equilibrato temi politicamente sensibili e sull’influenza che i proprietari delle piattaforme possono esercitare sui sistemi algoritmici.
L’episodio si inserisce in un contesto più ampio segnato da prese di posizione politiche sempre più esplicite da parte di Elon Musk. A inizio febbraio 2025, pochi giorni dopo la sua rielezione, il presidente Trump aveva annunciato l’intenzione di offrire asilo agli afrikaner, presentandoli come una popolazione perseguitata. I primi cittadini sudafricani ad accogliere l’invito e a trasferirsi negli Stati Uniti sono arrivati il 13 maggio.
Dal punto di vista tecnico, il comportamento di Grok non appare del tutto anomalo per gli esperti di IA. Gli agenti conversazionali generativi sono costituiti da reti neurali artificiali composte da miliardi di parametri, la cui organizzazione interna si sviluppa in modo autonomo e rimane in gran parte opaca agli stessi sviluppatori. Tuttavia, è tecnicamente possibile orientare il comportamento delle IA su determinati temi. Un caso emblematico è quello dell’azienda Anthropic, che nel maggio 2024 è riuscita a identificare nei propri modelli i “neuroni” associati al Golden Gate Bridge di San Francisco e a modificarne il peso, portando l’IA a menzionare il ponte nella maggior parte delle sue risposte, anche quando non pertinente.
Il caso Grok evidenzia quindi i rischi di un’IA “programmata” per insistere su specifici argomenti, intenzionalmente o meno. Secondo alcune analisi, le IA generative tendono generalmente a esprimere una visione centrista o di centro-sinistra, riflettendo in parte i dati con cui sono addestrate. Tuttavia, l’orientamento delle risposte può essere influenzato dalla selezione dei dati, dalla configurazione dei parametri e dalle preferenze dei proprietari delle piattaforme. In questo senso, Grok potrebbe rappresentare un’eccezione, in quanto sviluppata in un ambiente imprenditoriale con posizioni politiche più marcate.