Site icon visionedigitale.it

Altman: ChatGPT non protegge i segreti come uno psicologo

Altman: ChatGPT non protegge i segreti come uno psicologo

Milioni di persone confidano i loro segreti più intimi a ChatGPT, come se fosse un terapista. Ma Sam Altman avverte, quelle conversazioni private non sono affatto private dal punto di vista legale.

Sam Altman: “ChatGPT non è il vostro psicologo privato”

Le persone parlano delle cose più personali della loro vita a ChatGPT, ha ammesso Altman durante il podcast di Theo Von. Le persone lo usano – soprattutto i giovani – come un terapista, un life coach; hanno problemi relazionali e chiedono ‘cosa dovrei fare?’

È una realtà che chiunque abbia mai aperto ChatGPT riconosce immediatamente. L’AI è diventata il confidente perfetto: sempre disponibile, mai stanco di ascoltare, non giudicante. Ma attenzione: ChatGPT non è un vero psicologo, e questa differenza è cruciale per la privacy.

Quando si parla con un terapeuta, un avvocato o un medico nella vita reale, tutto quello che si dice resta lì. È coperto dal segreto professionale, una protezione legale che impedisce a queste conversazioni di finire in tribunale o di essere rivelate ad altri. Questo principio esiste proprio per permettere di aprirsi completamente senza paura, perché tutto rimarrà riservato. Con ChatGPT non si ha questa garanzia.

Con ChatGPT, questa rete di protezione non esiste. Anzi, Altman ha chiarito che se OpenAI ricevesse un’intimazione legale, sarebbe obbligata a consegnare quelle conversazioni intime che si pensava fossero al sicuro. Penso che sia molto sbagliato, ha dichiarato il CEO, ma la realtà legale attuale è questa.

OpenAI sta già vivendo questo incubo in prima linea. L’azienda attualmente sta combattendo una battaglia legale con il New York Times, che ha chiesto l’accesso alle chat di centinaia di milioni di utenti ChatGPT a livello globale. OpenAI si sta opponendo, ma il fatto stesso che sia possibile rivela quanto sia fragile la privacy degli utenti.

Se i tribunali possono scavalcare le decisioni di OpenAI sulla privacy dei dati, l’azienda potrebbe essere sommersa da richieste simili da parte di forze dell’ordine, avvocati, e chiunque altro abbia accesso al sistema legale. È un precedente terrificante per chiunque abbia mai condiviso qualcosa di personale con l’AI.

La generazione che cresce senza privacy

I giovani, in particolare, hanno adottato ChatGPT come un terapista. È sempre lì, non costa nulla, non ha orari di ricevimento, e non fa sentire in imbarazzo per le domande. Per una generazione cresciuta online, sembra naturale cercare supporto emotivo da un’intelligenza artificiale.

Ma questa generazione potrebbe essere la prima nella storia a crescere senza la garanzia che i propri segreti più intimi rimangano davvero segreti. Ogni confessione a ChatGPT, ogni momento di vulnerabilità, ogni richiesta di aiuto potrebbe teoricamente finire in un documento legale anni dopo.

Sarebbe stato facile per il CEO di OpenAI minimizzare il problema o promettere soluzioni imminenti. Invece, ha ammesso che inizialmente non ci hanno pensato, e che l’industria semplicemente non ha ancora trovato una soluzione.

Secondo Altman, dovremmo avere la stessa considerazione di privacy per le conversazioni con l’AI che abbiamo con un terapista, ma trasformare questa idea in realtà legale richiederà anni di battaglie legislative e giudiziarie. Nel frattempo, milioni di persone continuano a usare ChatGPT come confessore digitale, inconsapevoli che i loro segreti potrebbero non essere al sicuro.

Exit mobile version