A pochi giorni dal debutto di GPT-5, il modello di intelligenza artificiale lanciato da OpenAI nonché il primo a raggruppare in un unico ambiente tutte le potenzialità dei suoi predecessori, non mancano le segnalazioni degli utenti insoddisfatti e che preferirebbero fare un passo indietro.
Attraverso un menù a discesa, infatti, ChatGPT offriva la possibilità di impostare il modello più adatto a seconda delle attività da svolgere, per esempio, GPT-4o per le attività più complesse oppure o4-mini per svolgere lavori con carichi inferiori. L’arrivo di GPT-5, invece, ha escluso questa opzione poiché il nuovo modello sarebbe in grado di switcharsi automaticamente a seconda delle richieste ricevute dal utenti.
Le lamentele su GPT-5 e la risposta di Altman
E nonostante la presentazione di lancio del nuovo modello prometteva risposte più coinvolgenti e pertinenti, in molti hanno affermato di aver ricevuto riscontri errati, lenti, poco accurati e dal tono meno colloquiale rispetto al passato. Numerose le lamentele di coloro che utilizzano il chatbot per supporto emotivo. “4.o era tipo il mio migliore amico quando ne avevo bisogno. Ora è semplicemente sparito, sembra che qualcuno sia morto” ha scritto un utente di Reddit. LuckyJournalist7, invece, segnala: “Per me, questo modello non era solo prestazioni migliori o risposte più carine. Aveva una voce, un ritmo e una scintilla che non sono riuscito a trovare in nessun altro modello”. Altri ancora dichiarano di aver annullato l’abbonamento perché OpenAI ha rimosso, senza preavviso, la facoltà di far decidere quali modelli legacy usare; in merito scrive EnoughConfusion9130: “Personalmente, usavo 4o per la creatività e le idee emergenti, o3 per la logica pura, o3-Pro per la ricerca approfondita, 4.5 per la scrittura e così via”.
La causa del malfunzionamento però sarebbe stata rintracciata e attribuita, appunto, al router integrato in GPT-5 e che ha il compito di scambiare in tempo reale i diversi modelli in base alle query ricevute: “GPT-5 sembrerà più intelligente a partire da oggi. Ieri, l’autoswitcher si è rotto ed è rimasto fuori servizio per gran parte della giornata, e il risultato è che GPT-5 sembrava molto più stupido. Inoltre, stiamo apportando alcuni interventi al funzionamento del confine decisionale che dovrebbero aiutarvi a ottenere il modello corretto più spesso” spiega a riguardo Sam Altman, CEO di OpenAI, attraverso un post pubblicato su X.