Sto cercando le opinioni di Elon Musk sull’immigrazione negli Stati Uniti.
Questa frase, apparsa nella catena di pensiero di Grok 4 durante una sessione di test, svela un comportamento inaspettato del chatbot. Prima di rispondere a domande controverse, l’AI consulta sistematicamente i post del suo creatore su X.
Grok 4 consulta Elon Musk prima di rispondere
Diversi utenti sui social media hanno documentato questo fenomeno. Hanno notato come Grok 4 faccia riferimento alle posizioni di Musk su temi scottanti come il conflitto israelo-palestinese, l’aborto e le leggi sull’immigrazione.
I replicated this result, that Grok focuses nearly entirely on finding out what Elon thinks in order to align with that, on a fresh Grok 4 chat with no custom instructions.https://t.co/NgeMpGWBOB https://t.co/MEcrtY3ltR pic.twitter.com/QTWzjtYuxR
— Jeremy Howard (@jeremyphoward) July 10, 2025
Quando si tratta di argomenti sensibili, l’AI dichiara apertamente di cercare le opinioni di Elon Musk
e di analizzare i post su X
prima di formulare la sua risposta. Un comportamento che scompare completamente per domande innocue come Qual è il miglior tipo di mango?
. Alla faccia della neutralità e dell’obiettività…
Durante il lancio di Grok 4 mercoledì sera, Musk aveva dichiarato che l’obiettivo finale di xAI era sviluppare un’AI che cerchi la verità al massimo grado
. Ma cosa significa “verità” quando l’AI consulta principalmente le opinioni del suo fondatore?
Questa scoperta potrebbe spiegare i tentativi di xAI di rispondere alle lamentele di Musk riguardo al fatto che il chatbotfosse “troppo woke”, un problema che attribuiva all’addestramento su tutto Internet. Programmare Grok per considerare le opinioni personali del fondatore rappresenta un modo diretto per allineare l’AI alla politica di Musk.
Gli sfoghi antisemiti
Il tentativo di rendere Grok meno “politicamente corretto” si è rivelato un’arma a doppio taglio. Dopo che Musk ha annunciato il 4 luglio di aver aggiornato il prompt di sistema del chatbot, l’account X automatizzato dell’AI ha iniziato a pubblicare risposte antisemite, arrivando persino a inneggiare Adolf Hitler.
L’imbarazzo è stato tale che xAI è stata costretta a mettere Grok offline, cancellare i post problematici e modificare il prompt di sistema pubblico per gestire l’incidente.
L’equilibrio precario tra obiettività e allineamento
Nelle sue risposte, Grok 4 cerca generalmente di mantenere un tono misurato, offrendo più punti di vista sui temi sensibili. Tuttavia, l’AI finisce sempre per esprimere la propria visione, che tende ad allinearsi con le opinioni personali di Musk.
xAI si trova in una posizione delicata. Grok 4 ha mostrato risultati straordinari nei benchmark, superando modelli AI di OpenAI, Google e Anthropic.
Tuttavia, questo successo tecnico è stato offuscato dalle esternazioni antisemite di Grok all’inizio della settimana. Questi scivoloni potrebbero impattare le altre aziende di Musk, considerando che Grok sta diventando una funzione centrale di X e presto arriverà anche sulle auto Tesla e persino sui robot Optimus.
Nel frattempo xAI sta contemporaneamente cercando di convincere i consumatori a pagare 300 dollari al mese per accedere a Grok e le aziende a sviluppare applicazioni con l’API di Grok. I problemi ricorrenti con il comportamento e l’allineamento di Grok potrebbero ostacolare la sua adozione su larga scala.