Google rimuove le AI Overview per alcune ricerche mediche

Immaginiamo di cercare su Google Qual è l’intervallo normale per gli esami del sangue del fegato. Si riceve una bella risposta generata dall’AI, numeri precisi, tutto sembra a posto. Si guardano i risultati medici, si confrontano, e si tira un sospiro di sollievo: tutto normale. Solo che non lo è. Perché quei numeri che l’AI di Google ha servito su un piatto d’argento ignorano dettagli insignificanti come la nazionalità, il sesso, l’etnia o l’età. Dettagli che fanno la differenza, ma per le AI Overview di Google, no.

Il Guardian ha pubblicato un’indagine che ha smascherato questo piccolo disastro in corso. E Google, con la velocità di chi viene colto con le mani nel sacco, ha rimosso le AI Overview da alcune di queste ricerche. Non tutte, attenzione. Solo quelle dove sono stati beccati.

Le AI Overview di Google spariscono dalle ricerche sulla salute, ma il problema resta

Dopo la pubblicazione dell’articolo del Guardian, le AI Overview per ricerche come, appunto Qual è l’intervallo normale per gli esami del sangue del fegato e Qual è l’intervallo normale per i test di funzionalità epatica sono sparite. Puf, scomparse. Come se non fossero mai esistite.

Ma ecco il trucco, basta cambiare leggermente la query e l’AI magicamente riappare, pronta a dispensare informazioni mediche potenzialmente fuorvianti con la stessa sicurezza di prima. Google non ha risolto il problema alla radice, offre ancora l’opzione di porre le stesse domande su AI Mode. Il paradosso? In diversi casi, il primo risultato della ricerca era proprio l’articolo del Guardian che denunciava la rimozione delle AI Overview.

Un portavoce di Google ha dichiarato al Guardian che l’azienda non commenta singole rimozioni all’interno della Ricerca, ma stanno lavorando per apportare miglioramenti generali. E poi arriva la difesa: un team interno di medici ha esaminato le query e ha riscontrato che in molti casi, le informazioni non erano inaccurate ed erano supportate da siti web di alta qualità. Ma “in molti casi“. Non significa “sempre“. E soprattutto, il punto non è se le informazioni sono tecnicamente accurate. Il punto è se sono appropriate per essere fornite a chiunque senza contesto.

Ad esempio, un intervallo di riferimento per gli esami del fegato può essere accurato per un maschio caucasico di 45 anni, ma completamente fuorviante per una donna asiatica di 30. Entrambi i numeri provengono da siti web di alta qualità, ma solo uno è rilevante per la persona che sta cercando.

Il problema che Google non vuole affrontare

Il punto è che Big G non sta risolvendo il problema delle panoramiche AI sulla salute. Invece di ripensare il sistema o imporre regole più rigorose, interviene solo caso per caso, correggendo o limitando singole ricerche problematiche man mano che emergono. E le migliaia di varianti simili? Quelle restano attive fino a quando qualcun altro non si accorge e scrive un altro articolo.

L’AI che pensa di essere un medico (ma non lo è)

Il problema fondamentale è che le AI Overview trattano la medicina come qualsiasi altro argomento. Informazioni che possono essere riassunte, semplificate, servite in un box ordinato in cima alla pagina. Ma la salute è piena di sfumature, eccezioni, fattori individuali che rendono impossibile dare risposte universali a domande specifiche. Un’AI addestrata su miliardi di pagine web può estrarre numeri da fonti affidabili, ma non può capire se quei numeri si applicano alla persona specifica che sta facendo la domanda.

E il rischio non è solo che qualcuno pensi di star bene quando non lo è. È anche il contrario, qualcuno che legge numeri “normali” che non corrispondono ai suoi risultati e si convince di avere un problema grave quando invece va tutto bene. Eliminare un errore alla volta, mentre il meccanismo che li produce resta invariato, forse non è la scelta più saggia.

Visite totale 1 , 1 visite oggi
Scorri verso l'alto