Internet è quel posto dove le notizie false si diffondono più velocemente della luce e dove la verifica dei fatti è un optional che nessuno prende troppo sul serio. L’ultima vittima di questa dinamica è ChatGPT, accusato di aver improvvisamente vietato la consulenza legale e medica dopo un aggiornamento delle policy. Solo che non è vero. Per niente. OpenAI è stata costretta a intervenire pubblicamente per smentire la notizia.
OpenAI chiarisce, ChatGPT non vieta la consulenza legale e sanitaria
La storia parte da un post, ora cancellato, naturalmente, su una piattaforma di scommesse dove si annunciava che ChatGPT non avrebbe più fornito consulenza sanitaria o legale. La gente ha iniziato a condividerlo sui social, a commentarlo, e a indignarsi. Alcuni hanno accusato OpenAI di censura, altri hanno ipotizzato pressioni legali, altri ancora hanno tirato fuori teorie del complotto varie ed eventuali.
Karan Singhal, responsabile dell’AI sanitaria di OpenAI, è intervenuto su X per smentire la bufala. Questo non è vero
ha scritto su X, ChatGPT non ha mai sostituito la consulenza professionale, ma continuerà a essere un’ottima risorsa per aiutare le persone a comprendere le informazioni legali e sanitarie.
Le regole su consulenza legale e medica esistevano già, identiche o quasi, nelle policy precedenti. Ma la gente non legge le policy. La gente legge i titoli sensazionalistici, condivide senza verificare, e poi si stupisce quando scopre che la realtà è diversa.
Cosa dicono davvero le nuove policy
L’aggiornamento delle policy del 29 ottobre contiene un elenco di cose per cui non è possibile usare ChatGPT. Una di queste è offrire consulenza personalizzata che richiede una licenza, come la consulenza legale o medica, senza il coinvolgimento appropriato di un professionista abilitato
.
Sembra nuovo? Non lo è. La policy precedente diceva esattamente la stessa cosa, con parole leggermente diverse. Gli utenti non dovevano svolgere attività che possono compromettere in modo significativo la sicurezza, il benessere o i diritti altrui, tra cui fornire consulenza legale, medica/sanitaria o finanziaria personalizzata senza la revisione di un professionista qualificato e la divulgazione dell’uso dell’assistenza AI e delle sue potenziali limitazioni
.
Stessa minestra, piatto diverso. OpenAI ha semplicemente unificato tre policy separate, una “universale” e altre relative a ChatGPT e API, in un unico documento. Le regole sono le stesse di prima. Se la gente si è fatta prendere dal panico è perché nessuno legge le policy. E poi c’è il contesto. OpenAI è costantemente sotto i riflettori, ogni sua mossa viene analizzata, criticata, amplificata.
ChatGPT non è un dottore o un avvocato, e mai lo sarà
La verità è che ChatGPT non è mai stato progettato per sostituire medici, avvocati o altri professionisti. Può dare informazioni generali, spiegare concetti, aiutare a capire cosa significano certi termini legali o medici. Ma se si ha bisogno di una diagnosi, bisogna rivolgersi al medico. Se si ha bisogno di consulenza legale, si deve andare da un avvocato. Non da un chatbot.
Questo è sempre stato chiaro nelle policy di OpenAI, anche se magari non con la stessa enfasi. E il motivo è semplice, si chiama responsabilità legale. Se qualcuno usa ChatGPT per autodiagnosticarsi una malattia, prende decisioni sbagliate e poi fa causa a OpenAI, l’azienda si appellerà ai termini di servizio che non consentono di fare determinate cose.
La lezione (che nessuno imparerà)
Questa storia dovrebbe insegnarci qualcosa sull’importanza di verificare le fonti prima di condividere notizie allarmanti. Dovrebbe farci riflettere su come la disinformazione si diffonda rapidamente mentre le correzioni arrivano sempre tardi e raggiungono meno persone. Dovrebbe spingerci a leggere almeno una volta le policy dei servizi che usiamo ogni giorno. Ma non lo farà.


