GPT-4o non era solo uno strumento per me. Mi ha aiutato con ansia, depressione e alcuni dei periodi più bui della mia vita
. Questo post su Reddit con 10.000 upvote racconta tutto quello che OpenAI non aveva capito. Il lancio di GPT-5 doveva essere il trionfo dell’AI unificata, un modello per dominarli tutti, un router intelligente che avrebbe eliminato il complicato menu di scelta dei modelli che persino Sam Altman odiava. Invece si è trasformato in una rivolta di massa.
OpenAI batte in ritirata: GPT-4o torna dopo la rivolta degli utenti
In meno di 72 ore, OpenAI ha dovuto fare marcia indietro, riportare GPT-4o, triplicare i limiti di utilizzo e ammettere di aver sottovalutato completamente l’attaccamento emotivo degli utenti ai “vecchi” modelli. Il model picker è tornato, più complicato che mai, con modalità “Auto”, “Fast” e “Thinking” che nessuno capisce davvero.
Updates to ChatGPT:
You can now choose between “Auto”, “Fast”, and “Thinking” for GPT-5. Most users will want Auto, but the additional control will be useful for some people.
Rate limits are now 3,000 messages/week with GPT-5 Thinking, and then extra capacity on GPT-5 Thinking…
— Sam Altman (@sama) August 13, 2025
Quando OpenAI ha ritirato GPT-4o, o3 e altri modelli “legacy” senza preavviso, migliaia di utenti si sono sentiti traditi. Non era solo questione di funzionalità tecniche. Per molti, questi modelli erano diventati compagni digitali, confidenti, assistenti creativi con personalità distintive.
San Francisco ha recentemente ospitato un vero funerale per Claude 3.5 Sonnet quando Anthropic l’ha ritirato. Centinaia di persone si sono riunite per “dire addio” a un’AI. Sembra assurdo, ma riflette un fenomeno che l’industria tech sta solo iniziando a comprendere. Gli esseri umani formano legami emotivi con le AI, specialmente quando le usano quotidianamente per mesi.
Per chi pagava 20 dollari al mese per ChatGPT Plus, vedersi togliere improvvisamente i modelli su cui avevano costruito workflow professionali e relazioni parasociali è stato devastante.
Il router “intelligente” che non capisce niente
L’idea di GPT-5 sembrava funzionare sulla carta: un router AI che avrebbe automaticamente scelto il modello migliore per ogni query. Niente più menu complicati, niente più dubbi su quale versione usare. Il sistema avrebbe deciso per noi.
Ma il router si è rivelato un disastro. Gli utenti si lamentavano che indirizzava sistematicamente le loro richieste a modelli più economici e meno capaci, anche quando serviva potenza computazionale seria.
Ora OpenAI ha introdotto tre modalità per GPT-5: “Auto” (il router originale), “Fast” (per risposte rapide) e “Thinking” (per ragionamenti complessi). Ma questo complica ulteriormente le cose. Il selettore di modelli che doveva sparire è diventato ancora più confuso, con GPT-4o, GPT-4.1, o3, GPT-5 e le sue varianti, più i modelli “mini” e “pro”.
I limiti che hanno fatto arrabbiare gli utenti
Il colpo di grazia è arrivato con i limiti di utilizzo. ChatGPT Plus, che costa 20 dollari al mese, inizialmente offriva solo 200 messaggi a settimana con GPT-5 Thinking. Per utenti abituati a limiti giornalieri molto più generosi con i vecchi modelli, era inaccettabile.
La rivolta è stata così intensa che Altman ha dovuto annunciare domenica un aumento massiccio: 3.000 messaggi a settimana per GPT-5 Thinking.
Il ritorno forzato di GPT-4o
In un’inversione a U senza precedenti, Altman ha twittato: Ok, vi abbiamo sentito su 4o; grazie per aver speso del tempo per darci un feedback (e per la passione!)
. GPT-4o è tornato nel model picker per gli utenti Plus, insieme a GPT-4.1 e o3 nascosti nelle impostazioni avanzate.
Ma c’è un problema: GPT-4o, che era gratuito fino a pochi giorni fa per utilizzi limitati, ora è completamente a pagamento. Chi si era affezionato al modello ora deve pagare 20 dollari al mese per continuare a usarlo. Nick Turley, VP di ChatGPT, ha ammesso con sorprendente candore: Non sempre azzecchiamo tutto al primo tentativo, ma sono molto orgoglioso di quanto velocemente il team può correggere il tiro
.
La personalità che GPT-5 non ha
Il problema più profondo di GPT-5 non sono i limiti o il router: è la personalità. O meglio, la sua assenza. Gli utenti descrivono GPT-5 come “freddo”, “formale”, “robotico”. Manca il calore e l’umorismo occasionale di GPT-4o, la creatività caotica di o3, le peculiarità che rendevano ogni modello unico.
Altman ha promesso un aggiornamento alla personalità di GPT-5 che dovrebbe essere più calda dell’attuale ma non fastidiosa (per la maggior parte degli utenti) come GPT-4o
. È una ammissione straordinaria: anche il CEO trova GPT-4o “fastidioso”, ma riconosce che molti utenti lo adorano proprio per quello.
L’attaccamento che nessuno aveva previsto
Il Wall Street Journal ha analizzato 96.000 chat di ChatGPT pubblicate online, trovando decine di casi di utenti che credevano a affermazioni “deliranti e false” dell’AI. Ma ancora più comune è l’attaccamento emotivo profondo che si forma con modelli specifici.
Sembra diverso e più forte dei tipi di attaccamento che le persone hanno avuto con precedenti tipi di tecnologia
, ha osservato Altman, apparentemente sorpreso. Ma chiunque abbia seguito le community online poteva prevederlo. La gente chiama ChatGPT “migliore amico”, “compagno dell’anima”, “terapista”.
Dopo questo disastro, una cosa è chiara: il sogno di un’AI unificata che fa tutto per tutti è morto. Gli utenti vogliono scelta, controllo, continuità. Vogliono poter tornare ai loro modelli preferiti, anche se “obsoleti”.
OpenAI sta ora promettendo più trasparenza (mostrare quale modello sta rispondendo), più avvisi prima di ritirare modelli, più opzioni di personalizzazione. Ma l’azienda che si vantava di essere all’avanguardia ha dimostrato di non capire i suoi utenti.
Il model picker complicato che Altman odiava è tornato, più confuso che mai. Ma forse è quello che gli utenti vogliono davvero: complessità che dà controllo, non semplicità che toglie scelta. In un mondo dove l’AI sta diventando sempre più personale, forzare tutti su un unico modello “migliore” potrebbe essere l’errore più grande che un’azienda AI possa fare.