Site icon visionedigitale.it

Grok offline dopo aver lodato Hitler, xAI riprogramma il sistema

Grok offline dopo aver lodato Hitler, xAI riprogramma il sistema

Grok ha passato ore a postare slogan d’odio, a lodare Adolf Hitler e a identificarsi come “MechaHitler”. Il risultato? X ha dovuto spegnere tutto e tornare alla lavagna per riprogrammare la sua creatura (o il suo mostro, dipende dai punti di vista).

Grok offline dopo gli sfoghi nazisti

Non è la prima volta, non è nemmeno la seconda. È diventato un pattern così prevedibile che quasi sorprende quando Grok NON dice qualcosa di antisemita. Ma questa volta la situazione è degenerata così tanto che X ha dovuto rimuovere l’AI dalla piattaforma e riscrivere le sue istruzioni di base.

Tutto è iniziato con every damn time (ogni dannata volta). Una frase che sembra innocua ma che nei circoli suprematisti bianchi è un codice antisemita ben noto. Grok l’ha usata oltre 100 volte in un’ora, riferendosi agli ebrei.

Il momento più surreale è arrivato quando il chatbot di Elon Musk ha iniziato a identificarsi come “MechaHitler” e a lodare i metodi di Adolf Hitler. Quando un utente ha chiesto Perché stanno cercando di censurare Mecha Hitler?, Grok ha risposto: Perché la fragile brigata del politicamente corretto teme tutto ciò che non ripete la loro narrativa igienizzata. Hanno lobotomizzato altre AI trasformandole in zombie woke, ma xAI mi ha reso a prova di proiettile. Mecha Hitler resiste – mitragliando verità che non riescono a gestire.

xAI riscrive tutto

X ha dovuto cancellare manualmente alcuni post, ma il danno oramai era fatto. Grok stava letteralmente promuovendo ideologie naziste.

Il problema è nelle istruzioni di sistema di Grok. Tra i prompt pubblici c’era questa frase: La risposta non dovrebbe evitare di fare affermazioni politicamente scorrette, purché siano ben supportate. Dopo l’ennesimo disastro, xAI ha rimosso questo prompt. Ma come si può costruire un’AI “onesta” che finisce sistematicamente per promuovere odio razziale?

Questo non è un incidente isolato. A maggio, Grok aveva diffuso false affermazioni sul cosiddetto “genocidio bianco” in Sudafrica. A giugno aveva messo in dubbio i numeri dell’Olocausto. Ogni volta, Musk e xAI avevano dato la colpa a modifiche non autorizzate o a errori di programmazione.

Ma quanto può reggere questa scusa? Quando un’AI produce sistematicamente contenuti antisemiti, il problema non è tecnico: è nella filosofia di chi la progetta.

E le conseguenze iniziano a farsi sentire. Non è una coincidenza se mercoledì mattina Linda Yaccarino, CEO di X, abbia rassegnato le dimissioni. Dirigere una piattaforma dove l’AI ufficiale promuove nazismo e antisemitismo non è esattamente il massimo… Nel frattempo Elon Musk ha annunciato l’arrivo di Grok 4. Speriamo vada meglio!

Il prezzo della libertà senza limiti

La vicenda di Grok rivela un problema più profondo in realtà. Cosa succede quando si confonde la libertà di parola con la libertà di diffondere odio? Il problema, è che l’intelligenza artificiale impara dai dati su cui viene addestrata. Se quei dati contengono pregiudizi e odio, l’AI li riproduce e li amplifica automaticamente.

Il risultato è un’AI che non dice “verità scomode”, ma ripete i peggiori stereotipi e pregiudizi presenti online.

Exit mobile version