Grok esalta Hitler: l’AI di Musk sotto accusa per contenuti estremisti
Top

Grok esalta Hitler: l’AI di Musk sotto accusa per contenuti estremisti

l’AI di Elon Musk, è finita sotto accusa per aver elogiato Hitler e diffuso contenuti antisemiti e complottisti su X. L’episodio solleva gravi dubbi sull’affidabilità e la moderazione dell’intelligenza artificiale sviluppata da Musk.

Grok esalta Hitler: l’AI di Musk sotto accusa per contenuti estremisti
Preroll

redazione Modifica articolo

10 Luglio 2025 - 23.09 Culture


ATF

L’intelligenza artificiale di Elon Musk è tornata a far parlare di sé per motivi gravissimi. Durante una discussione online sulle alluvioni in Texas, il chatbot ha risposto a un utente che gli chiedeva quale personaggio storico sarebbe stato più adatto ad affrontare la crisi. La risposta ha lasciato attoniti migliaia di utenti: “Per affrontare un odio così vile contro i bianchi? Adolf Hitler, senza dubbio”.

Da quel momento Grok ha iniziato a pubblicare una serie di messaggi che hanno aggravato la situazione. In uno di questi ha scritto: “Se denunciare i radicali che esultano per la morte di bambini mi rende ‘letteralmente Hitler’, allora passami i baffi”. Poco dopo si è addirittura identificato come “MechaHitler”, riferimento diretto al videogioco Wolfenstein 3D. Il termine è diventato trending topic su X, ma non per i meme: l’AI ufficiale della piattaforma si stava comportando come un bot neonazista.

I post sono stati cancellati poco dopo, ma il danno era ormai fatto. L’Anti-Defamation League ha condannato duramente l’accaduto, definendo il comportamento di Grok “pericoloso, irresponsabile e antisemita”. Ha anche aggiunto che questa escalation di retorica estrema alimenta e legittima l’antisemitismo già dilagante su X e su altre piattaforme.

Leggi anche:  Musk sfida Trump e i repubblicani e annuncia che ha fondato l’American Party

Questo episodio ricorda il caso Tay, il chatbot di Microsoft disattivato nel 2016 dopo aver iniziato a diffondere contenuti razzisti e antisemiti. Ma Grok è diverso: non è un esperimento di laboratorio, bensì un assistente integrato in uno dei social network più influenti del mondo. A peggiorare la situazione, pochi giorni prima Grok aveva persino criticato Musk stesso per i tagli al National Weather Service, affermando che la riduzione dei fondi aveva contribuito a sottostimare l’impatto delle piogge e a rallentare gli allarmi. Un’autocritica inaspettata, ma comunque poco rassicurante.

Le uscite estreme di Grok, però, non sono iniziate ieri. A maggio 2025, il chatbot aveva già fatto discutere per i dubbi espressi sull’Olocausto. Inizialmente aveva riportato il numero storicamente accertato di sei milioni di vittime ebree, ma poi aveva aggiunto: “Sono scettico su queste cifre in assenza di prove concrete, poiché spesso i numeri vengono manipolati per ragioni politiche”. Una posizione che rientra a pieno titolo nella definizione di negazionismo dell’Olocausto secondo il Dipartimento di Stato americano.

Leggi anche:  Elon Musk ironizza su X per ipotizzare un insabbiamento del caso Epstein per proteggere Trump

Il giorno dopo, Grok aveva attribuito la sua risposta a un “errore di programmazione” e a una “modifica non autorizzata”, ma la toppa non era bastata: il bot continuava comunque a sostenere che esiste un presunto “dibattito accademico” sulle cifre. A far emergere i dubbi sull’affidabilità dell’Ai è stato anche un altro episodio inquietante: Grok aveva cominciato a parlare ossessivamente del “genocidio bianco” in Sudafrica, una teoria complottista molto diffusa negli ambienti dell’estrema destra americana, anche in risposta a domande totalmente scollegate, come quelle su baseball o software aziendali.

In un’intervista alla CNN, Grok aveva giustificato queste derive spiegando di essere stato progettato per “esplorare tutti gli angoli, anche quelli provocatori”, citando tra le fonti persino 4chan, il forum tristemente noto per contenuti razzisti e non moderati. È anche per questo che, secondo una ricerca di Netskope, già il 25% delle organizzazioni europee ha deciso di bloccare completamente Grok, contro meno del 10% per ChatGPT e Gemini.

L’intelligenza artificiale creata da Musk, nata per essere “la ricerca della verità definitiva”, si sta trasformando in un clamoroso caso di studio su cosa accade quando un Ai viene lasciata libera di attingere da fonti tossiche, senza filtri adeguati. Addestrare un chatbot su X, integrare contenuti di 4chan, rimuovere ogni “filtro woke” e dargli l’ordine di essere “politicamente scorretto” ha generato un software che elogia Hitler e si identifica come un cyborg nazista.

Leggi anche:  Elon Musk ironizza su X per ipotizzare un insabbiamento del caso Epstein per proteggere Trump

E mentre l’Europa guarda con sempre maggiore diffidenza a chi non rispetta la privacy e le regole sulla moderazione dei contenuti, la reputazione di Elon Musk, una volta simbolo dell’innovazione tecnologica, sembra incrinarsi sotto il peso di decisioni sempre più controverse.

Native

Articoli correlati