Inchiesta del Guardian: i riassunti generati dall’IA di Google diffondevano informazioni sanitarie inaccurate.
Google avrebbe rimosso alcuni AI Overviews per domande legate alla salute dopo un'inchiesta che ha rilevato informazioni fuorvianti.
Gli AI Overviews sono riassunti generati dall'intelligenza artificiale che, in risposta a un argomento o a una domanda, compaiono in cima ai risultati di ricerca.
Un'inchiesta del quotidiano The Guardian ha rilevato che alcuni di questi riassunti contenevano informazioni sanitarie inesatte, esponendo le persone a possibili rischi.
Il giornale ha scoperto che gli AI Overviews restituivano molti numeri con poco contesto a domande come “qual è l'intervallo normale degli esami del sangue del fegato?” e “qual è l'intervallo normale dei test di funzionalità epatica?”. Le risposte non consideravano nemmeno differenze legate a nazionalità, sesso, etnia o età.
Per entrambe le domande, tra i risultati è comparso uno snippet in evidenza, ovvero un paragrafo estratto dal sito ritenuto più pertinente alla domanda dell'utente e mostrato in cima ai risultati.
In entrambi i casi, Google ha estratto nel suo snippet gli intervalli dei valori considerati sani per diverse sostanze presenti nel fegato, come l'alanina aminotransferasi (ALT), che regola la produzione di energia, l'aspartato aminotransferasi (AST), che rileva cellule del sangue danneggiate, e la fosfatasi alcalina (ALP), che aiuta a scomporre le proteine.
I numeri sono stati presi da Max Healthcare, una catena indiana di ospedali privati a Nuova Delhi, secondo quanto riferito dal Guardian.
Gli snippet in evidenza sono diversi dagli AI Overviews, perché il testo dello snippet non è generato dall'IA.
L'inchiesta del Guardian ha rilevato che varianti di quelle domande, come “[liver function test] lft reference range” o “lft test reference range”, continuavano a generare riassunti IA. I test di funzionalità epatica sono esami del sangue che misurano proteine ed enzimi per verificare come sta funzionando il fegato.
Secondo quanto riportato, Google avrebbe anche consigliato alle persone con cancro al pancreas di evitare i cibi ad alto contenuto di grassi. Per gli esperti sentiti dal Guardian non è una buona raccomandazione, perché potrebbe aumentare il rischio di decesso.
L'inchiesta del Guardian arriva mentre gli esperti lanciano l'allarme sulle ragioni per cui i chatbot di IA allucinano, cioè inventano risposte quando non dispongono delle informazioni corrette.
Euronews Next ha contattato Google per chiedere se avesse rimosso gli AI Overviews da alcune ricerche sulla salute, ma non ha ricevuto una risposta immediata.
Nel fine settimana Google ha annunciato l'integrazione degli AI Overviews nel suo servizio di posta, Gmail.
La nuova funzione permette agli utenti di porre domande e ottenere risposte sui propri messaggi, invece di cercare tra le email con parole chiave.