Molte persone interagiscono con i chatbot come se fossero persone reali, senza comprendere i rischi derivanti dalla condivisione di informazioni sensibili. Il Garante per la protezione dei dati personali ha lanciato un allarme su una pratica sempre più diffusa, ovvero il caricamento di referti medici per chiedere interpretazioni o una diagnosi. Questo è un uso scorretto e pericoloso dell’intelligenza artificiale.
I chatbot non sono medici
Esistono sistemi sviluppati appositamente per scopi medici, quindi con le necessarie “competenze” che vengono comunque verificate da persone reali. Il Garante della privacy evidenzia che, purtroppo, molti utenti caricano analisi cliniche, radiografie e altri referti medici sulle piattaforme di intelligenza artificiale, senza rendersi conto delle conseguenze.
Ci sono due rischi principali derivanti da questo uso scorretto dei chatbot. Il primo è la perdita di controllo dei dati sanitari. Il Garante consiglia agli utenti di leggere attentamente le informative sulla privacy (che i provider sono obbligati a pubblicare) per verificare se i dati sanitari contenuti nei referti medici vengono cancellati subito dopo aver inserito la richiesta, in un momento successivo o vengono conservati dal provider e utilizzati per l’addestramento dei modelli AI.
Il secondo rischio, più grave perché può avere conseguenze nefaste, riguarda la qualità delle risposte. Un sistema AI non progettato per diagnosi o interpretazioni mediche potrebbe fornire risposte sbagliate, ad esempio suggerire di assumere farmaci. Il Garante sottolinea che la supervisione umana qualificata deve essere garantita in tutte le fasi del ciclo di vita del sistema AI: sviluppo, addestramento, test, convalida e utilizzo.
In pratica, il Garante consiglia di non usare i chatbot come se fossero esperti in medicina. Per la realizzazione di servizi sanitari che sfruttano l’intelligenza artificiale devono essere rispettati determinati requisiti elencati in un decalogo.