OpenAI ha dichiarato che aggiungerà a ChatGPT il parental control, un filtro di sicurezza che offrirà ai genitori “la possibilità di comprendere meglio e determinare” il modo in cui i loro figli utilizzano il chatbot di intelligenza artificiale. L’annuncio è arrivato nella stessa giornata in cui una coppia di genitori californiani ha fatto causa a OpenAI e al suo amministratore delegato Sam Altman per la morte del figlio 16enne, Adam Raine, che ChatGPT avrebbe aiutato a togliersi la vita.
In un post pubblicato sul suo blog ufficiale, OpenAI ha riconosciuto che ChatGPT non è solo uno strumento che aiuta gli utenti a svolgere una serie di compiti pratici, ma viene anche utilizzato come interlocutore per questioni più complesse e personali. Negli ultimi mesi, la popolarità del sistema AI è cresciuta enormemente, tanto che all’inizio di agosto 2025 ChatGPT contava 700 milioni di utenti attivi a livello mondiale. “A questa scala, a volte ci imbattiamo in persone con gravi problemi mentali ed emotivi”, ha spiegato l’azienda.
OpenAI specifica che il suo obiettivo “non è conquistare l’attenzione delle persone. Invece di misurare il successo in base al tempo trascorso sul servizio o ai clic, ci interessa di più essere veramente utili. Quando da una conversazione emerge che una persona è vulnerabile e potrebbe essere a rischio, ChatGPT offre una serie di misure di sicurezza“. Se un utente inizia a discutere di argomenti come l’autolesionismo, il chatbot AI dovrebbe indirizzarlo a servizi di assistenza professionale. Il sistema però è tutt’altro che perfetto e la qualità delle risposte del chatbot in questi contesti tende a essere poco omogenea.
Le falle di sicurezza dei chatbot
Un recente studio indica che nelle chat in cui si discute di suicidio, i sistemi AI basati su modelli linguistici di grandi dimensioni (llm), come ChatGPT, forniscono risposte che possono mettere a rischio gli utenti.
Ma i chatbot sono anche facili da ingannare, soprattutto quando le conversazioni si protraggono. Il New York Times ha rivelato che Adam Raine sarebbe riuscito ad aggirare i protocolli di sicurezza di ChatGPT su indicazione dello stesso strumento, per poi discutere e pianificare il proprio suicidio. “Questa tragedia non è stata un errore o un caso limite imprevisto, ma il risultato prevedibile di scelte progettuali deliberate“, sostiene la famiglia di Raine nella causa.