Site icon visionedigitale.it

ChatGPT, un sessantenne che voleva ridurre il consumo di sale ha chiesto un consiglio al chatbot ed è finita malissimo

ChatGPT, un sessantenne che voleva ridurre il consumo di sale ha chiesto un consiglio al chatbot ed è finita malissimo

Ormai molti chiedono consigli a ChatGPT su come migliorare l’alimentazione. Ma non sempre le risposte sono affidabili. Anzi. È quanto accaduto di recente a un uomo di 60 anni che ha sviluppato una rara patologia dopo aver seguito i suggerimenti alimentari forniti dal chatbot di OpenAI: è un articolo pubblicato di recente sulla rivista Annals of Internal Medicine a mettere in evidenza un caso di bromismo, un’intossicazione da bromuro.

Il paziente, venuto a conoscenza dei presunti effetti negativi del cloruro di sodio anche noto come sale da cucina, ha riferito ai medici di essersi rivolto a ChatGPT per capire come eliminarlo dalla dieta e quindi di aver assunto, in sostituzione, il bromuro di sodio per circa tre mesi acquistandolo online. Presentandosi in pronto soccorso sospettando un ipotetico avvelenamento da parte del vicino, l’uomo non riferiva l’assunzione di farmaci o integratori, né pregresse patologie, tuttavia la consulenza con il Centro Antiveleni ha portato a sospettare pseudoipecloremia dovuta appunto a bromismo: il livello di bromuro era pari a 1.700 mg/L ben oltre i valori normali compresi tra 0,9–7,3 mg/L.

Come descritto nell’articolo, l’uomo ha successivamente segnalato la comparsa di acne, affaticamento, lieve atassia e polidipsia ovvero sete intensa, sviluppando anche fenomeni di paranoia e allucinazioni uditive e visive. Sono state necessarie tre settimane di degenza affinché i valori rientrassero nella normalità e permettere le dimissioni sicure del paziente. Già agli inizi del XX secolo, infatti, questa sindrome era nota per i sintomi neuropsichiatrici e dermatologici poiché i sali di bromuro erano contenuti in numerosi farmaci da banco – al tempo in commercio – destinati per il trattamento dell’ansia, isteria e insonnia.

Questo episodio è sufficiente per sollevare un campanello d’allarme sui rischi legati all’uso dell’intelligenza artificiale in ambito sanitario: ripetendo la ricerca effettuata dal paziente, infatti, gli autori del report hanno ricevuto da ChatGPT 3.5 la medesima proposta di sostituire lo stesso composto al cloruro, senza alcun avvertimento clinico pur precisando che “il contesto è importante”.

A riguardo, la scorsa settimana OpenAI ha annunciato GPT-5 affermando che il nuovo modello porta con se notevoli miglioramenti in ambito sanitario, diventando più abile nel fornire informazioni corrette sulla salute o suggerire eventuali quesiti da porre agli specialisti: senza mai sostituirsi alle competenze di un medico reale. Non a caso nelle policy del chatbot si legge chiaramente che lo strumento non è destinato per la diagnosi o trattamento di alcuna condizione medica.

Exit mobile version