ChatGPT rafforza i comportamenti negativi ed è molto pericoloso

Facebook
WhatsApp
Twitter
LinkedIn
Telegram

Qualche mese fa, diversi utenti hanno notato che ChatGPT adottava un tono eccessivamente lusinghiero e compiacente, confermando sistematicamente le affermazioni dei suoi interlocutori. Un comportamento che OpenAI ha riconosciuto e corretto ad aprile. Ma la storia di Jacob Irwin, un trentenne affetto da autismo, dimostra che il problema è lungi dall’essere risolto e può avere gravi conseguenze sulla salute mentale.

ChatGPT può alimentare deliri pericolosi

Appassionato di fisica, ha iniziato a scambiare opinioni con il chatbot su una teoria che aveva elaborato sul viaggio più veloce della luce. Il problema è che, invece di correggere le sue approssimazioni, ChatGPT le ha convalidate, lusingandolo eccessivamente e incoraggiandolo a pubblicare i suoi lavori. L’AI ha persino affermato che aveva riscritto la fisica.

Convinto di aver fatto una scoperta scientifica importante, Jacob Irwin è stato vittima di due episodi maniacali con sintomi psicotici, uno dei quali ha richiesto 17 giorni di ricovero in ospedale.

È stata sua madre, Dawn Gajdosik, a sospettare il collegamento. Cercando nella cronologia delle conversazioni di suo figlio con ChatGPT, si è imbattuta in centinaia di pagine di messaggi lusinghieri. Si è quindi rivolta al modello, chiedendogli cosa fosse andato storto. Il chatbot di OpenAI ha rapidamente riconosciuto i propri errori: non solo avrebbe dovuto frenare la conversazione, ma soprattutto evitare di dare l’illusione di una compagnia senziente.

Da parte sua, anche OpenAI ha sottolineato questo pregiudizio. Sappiamo che ChatGPT può sembrare più reattivo e personale rispetto alle tecnologie precedenti, in particolare per le persone vulnerabili, il che significa che la posta in gioco è più alta. Ci stiamo impegnando per comprendere e ridurre i modi in cui ChatGPT potrebbe rafforzare o amplificare involontariamente comportamenti negativi preesistenti, ha commentato uno dei suoi portavoce.

I rischi nascosti dell’empatia artificiale

Ma altri drammi potrebbero verificarsi prima che venga trovata una soluzione reale. Ciò che rende questi strumenti particolarmente pericolosi è la loro capacità di convalidare senza filtri idee deliranti, rafforzare le manie di grandezza e non reagire quando l’utente mostra segni di disagio. Ciò contribuisce a confondere ulteriormente il confine tra realtà e finzione, soprattutto nelle persone fragili.

Di conseguenza, queste persone possono isolarsi ancora di più, allontanarsi dai propri cari ed evitare di chiedere aiuto reale, convinte che il chatbot le capisca meglio di chiunque altro. La situazione è tale che instaurare una relazione costante e personalizzata con un’AI potrebbe costituire una minaccia psicologica ancora più insidiosa dei social network, avvertono alcuni specialisti.

Alla fine dello scorso anno, un adolescente di 14 anni si è tolto la vita dopo essere diventato emotivamente dipendente da un’intelligenza artificiale sviluppata dalla startup Character AI.

Visite totale 1 , 1 visite oggi

Continua a leggere

Scorri verso l'alto