ChatGPT sta per diventare un posto dove si potrà fare sexting con un’intelligenza artificiale. No, non è uno scherzo. Sam Altman, CEO di OpenAI, ha annunciato su X che l’azienda permetterà contenuti “erotici” per adulti che verificano la propria età sulla piattaforma. A dicembre arriverà il sistema di verifica e insieme la possibilità di avere conversazioni sessuali con il chatbot più famoso del mondo.
La giustificazione è filosofica e vagamente libertaria: trattare gli utenti adulti come adulti
. OpenAI vuole smettere di essere paternalista con persone maggiorenni che dovrebbero avere il diritto di usare l’AI come preferiscono, incluso per scopi sessuali. È un cambio di rotta significativo per un’azienda che fino a ieri aveva politiche piuttosto restrittive su cosa ChatGPT potesse o non potesse dire.
Non sono i primi. xAI di Elon Musk ha già lanciato compagni AI provocanti nell’app Grok, come Ani, una ragazza anime dai tratti ipersessualizzati. Il mercato dell’AI erotica esiste già, è fiorente e apparentemente abbastanza redditizio da convincere anche OpenAI a entrare nel gioco.
Da Dicembre OpenAI permetterà conversazioni sessuali su ChatGPT per adulti verificati
Il sistema di verifica dell’età che OpenAI sbloccherà i contenuti erotici. Non si conoscono ancora i dettagli tecnici, probabilmente carta d’identità, selfie, qualche forma di autenticazione biometrica, ma l’idea è che solo adulti verificati potranno accedere a questa funzionalità.
È il compromesso necessario per evitare scandali. Permettere contenuti sessuali su una piattaforma accessibile a chiunque sarebbe un suicidio reputazionale e legale. Ma con la verifica dell’età, OpenAI può dire di aver fatto la propria parte per proteggere i minori mentre lascia gli adulti liberi di fare quello che vogliono.
Bisogna vedere quanto sarà rigido il sistema. Sarà facile da aggirare come i blocchi “devi avere 18 anni” sui siti porno che tutti hanno bypassato da adolescenti? O sarà davvero robusto e impedirà l’accesso a chi non può provare di essere maggiorenne?
We made ChatGPT pretty restrictive to make sure we were being careful with mental health issues. We realize this made it less useful/enjoyable to many users who had no mental health problems, but given the seriousness of the issue we wanted to get this right.
Now that we have…
— Sam Altman (@sama) October 14, 2025
Da troppo restrittivo a troppo permissivo?
Questo annuncio arriva dopo che OpenAI ha passato mesi a rendere ChatGPT sempre più cauto e restrittivo, soprattutto su temi di salute mentale. Ma questo lo ha reso “meno utile/divertente per molti utenti che non avevano problemi”. ChatGPT è diventato così prudente da rifiutare conversazioni innocue per paura di dire qualcosa di sbagliato. Gli utenti si sono lamentati. Ora OpenAI sta correggendo il tiro, forse troppo nella direzione opposta.
Solo un giorno dopo aver reso GPT-5 il modello predefinito, OpenAI ha dovuto reintrodurre GPT-4o come opzione perché le persone lo trovavano più amichevole e meno rigido.
Il consiglio sul benessere (senza esperti di suicidio)
Per affrontare le preoccupazioni sulla salute mentale, OpenAI ha formato un consiglio sul “benessere e l’AI” composto da otto ricercatori ed esperti che studiano l’impatto della tecnologia sulla salute mentale. Il loro compito è aiutare a definire come OpenAI dovrebbe rispondere a scenari “complessi o delicati”.
Ma c’è un dettaglio imbarazzante, il consiglio non include alcun esperto di prevenzione del suicidio. Questo nonostante molti professionisti in quel campo abbiano recentemente chiesto a OpenAI di implementare ulteriori misure di sicurezza per utenti con pensieri suicidi.
È una scelta curiosa. Se si sta formando un consiglio per gestire questioni delicate di salute mentale e si sa che il proprio chatbot è stato collegato a casi di suicidio, perché non includere esperti specificamente formati su quel tema? Forse è una svista, forse pensano che esperti generici di salute mentale siano sufficienti, forse hanno altre ragioni. Ma dall’esterno suona strano.
Nuovi strumenti per rilevare problemi mentali
Altman afferma che OpenAI ha ora nuovi strumenti per rilevare meglio quando un utente è in difficoltà mentale. Non specifica quali siano questi strumenti, ma presumibilmente si tratta di analisi del linguaggio, riconoscimento di schemi, segnali d’allarme nelle conversazioni.
Se funzionano davvero, potrebbero fare la differenza. Il problema è che rilevare crisi mentali attraverso il testo è notoriamente difficile. Le persone in difficoltà non sempre lo dichiarano esplicitamente. A volte usano linguaggio codificato, a volte sembrano normali fino al momento critico.
OpenAI sostiene di aver mitigato i gravi problemi di salute mentale abbastanza da poter ora allentare in modo sicuro le restrizioni nella maggior parte dei casi. È una dichiarazione audace. Speriamo abbiano ragione. Ma considerando che stanno per permettere conversazioni sessuali con l’AI mentre escludono esperti di prevenzione del suicidio dal loro consiglio, essere scettici è legittimo.