Dopo il recente lancio di ChatGPT Health di OpenAI, ecco i punti chiave da valutare prima di affidarsi ai chatbot di intelligenza artificiale per consigli medici.
Con centinaia di milioni di persone che si rivolgono ai chatbot in cerca di consigli, era solo questione di tempo prima che le aziende tecnologiche iniziassero a offrire programmi pensati appositamente per rispondere a domande sulla salute.
A gennaio, OpenAI ha presentato ChatGPT Health, una nuova versione del suo chatbot che, secondo l'azienda, può analizzare le cartelle cliniche degli utenti, i dati delle app per il benessere e dei dispositivi indossabili per rispondere a domande di salute e medicina.
Al momento esiste una lista d’attesa per il programma. Anthropic, società di IA concorrente, offre funzioni simili ad alcuni utenti del suo chatbot Claude.
Entrambe le aziende sottolineano che i loro programmi, noti come large language model, non sostituiscono l’assistenza professionale e non devono essere usati per diagnosticare malattie. Sostengono invece che i chatbot possano riassumere e spiegare esami complessi, aiutare a prepararsi a una visita dal medico o analizzare tendenze importanti sulla salute nascoste nelle cartelle cliniche e nei dati delle app.
Ma quanto sono sicuri e accurati questi chatbot nell’analizzare dati sanitari e condizioni cliniche? E ci si può davvero affidare a loro?
Ecco alcuni aspetti da valutare prima di parlare con un chatbot della vostra salute:
Chatbot sanitari: informazioni più personalizzate di una ricerca su Google
Alcuni medici e ricercatori che hanno lavorato con ChatGPT Health e programmi simili li considerano un passo avanti rispetto alla situazione attuale.
Le piattaforme di intelligenza artificiale non sono perfette: a volte possono "allucinare" o fornire consigli sbagliati (fonte in inglese), ma le informazioni che producono tendono a essere più personalizzate e specifiche rispetto a ciò che i pazienti trovano con una ricerca su Google.
"Spesso l’alternativa è il nulla, o il paziente che va a intuito", ha spiegato il dottor Robert Wachter, esperto di tecnologie mediche all’Università della California, a San Francisco. "Se si usano questi strumenti in modo responsabile, si possono ottenere informazioni utili".
Nei Paesi come il Regno Unito o gli Stati Uniti, dove ottenere un appuntamento con il medico può richiedere settimane e l’attesa al pronto soccorso è spesso di ore, i chatbot possono contribuire a ridurre allarmismi inutili e a far risparmiare tempo in molti casi.
Allo stesso tempo, possono evidenziare quando i sintomi sono pericolosi e devono essere valutati da veri professionisti sanitari.
Uno dei vantaggi dei chatbot più recenti è che rispondono alle domande degli utenti tenendo conto della loro storia clinica, comprese le prescrizioni, l’età e le note dei medici.
Anche se non avete dato all’IA accesso alle vostre informazioni sanitarie, Wachter e altri consigliano di fornire ai chatbot quanti più dettagli possibile, per migliorare la qualità delle risposte.
Sintomi preoccupanti? Meglio saltare l’IA
Wachter e altri esperti sottolineano che ci sono situazioni in cui bisogna evitare il chatbot e cercare subito assistenza medica. Sintomi come difficoltà respiratorie, dolore al petto o un forte mal di testa possono essere il segnale di un’emergenza.
Persino in situazioni meno urgenti, pazienti e medici dovrebbero avvicinarsi ai programmi di IA con "un sano scetticismo", afferma il dottor Lloyd Minor dell’Università di Stanford.
"Se si tratta di una decisione medica importante, o anche di una decisione più piccola sulla propria salute, non ci si dovrebbe mai basare solo su ciò che si ottiene da un large language model", ha aggiunto Minor, preside della facoltà di medicina di Stanford.
Perfino in casi meno complessi o molto comuni, come la sindrome dell’ovaio policistico (PCOS), può essere preferibile rivolgersi a un vero professionista sanitario. La condizione infatti può manifestarsi in modo molto diverso da una persona all’altra, e questo cambia radicalmente il percorso di cura.
Prima di caricare dati sanitari sull’IA, pensate alla privacy
Molti dei vantaggi offerti dai bot di IA dipendono dal fatto che gli utenti condividono informazioni mediche personali. Ma è importante sapere che ciò che viene condiviso con un’azienda di IA non è protetto dalla legge federale statunitense sulla privacy che regola di solito i dati sanitari sensibili.
Comunemente nota come HIPAA, la legge prevede multe e persino il carcere per medici, ospedali, assicurazioni o altri servizi sanitari che rivelano cartelle cliniche. Ma la legge non si applica alle aziende che progettano chatbot.
"Caricare la propria cartella clinica in un large language model è molto diverso dal consegnarla a un nuovo medico", ha spiegato Minor. "I consumatori devono capire che gli standard di tutela della privacy sono completamente diversi".
Sia OpenAI sia Anthropic affermano che le informazioni sanitarie degli utenti sono conservate separatamente dagli altri tipi di dati e sono soggette a protezioni aggiuntive. Le aziende non utilizzano i dati sanitari per addestrare i loro modelli. Gli utenti devono dare un consenso esplicito per condividere le informazioni e possono revocarlo in qualsiasi momento.
I test dimostrano che i chatbot sanitari possono sbagliare
Nonostante l’entusiasmo intorno all’IA, i test indipendenti su queste tecnologie sono ancora agli inizi. I primi studi suggeriscono che programmi come ChatGPT possono superare brillantemente esami medici di alto livello, ma vanno spesso in difficoltà quando interagiscono con persone reali.
Uno studio con 1.300 partecipanti, condotto dall’Università di Oxford, ha rilevato che chi usava chatbot di IA per informarsi su condizioni di salute ipotetiche non prendeva decisioni migliori rispetto a chi usava ricerche online o il proprio giudizio.
Quando venivano presentati scenari clinici completi, in forma scritta, i chatbot di IA identificavano correttamente la patologia sottostante nel 95 per cento dei casi.
"Quello non era il problema", ha spiegato l’autore principale Adam Mahdi dell’Oxford Internet Institute. "Le cose si sono complicate durante l’interazione con i partecipanti reali".
Mahdi e il suo team hanno individuato diversi problemi di comunicazione. Spesso le persone non fornivano ai chatbot le informazioni necessarie per identificare correttamente il problema di salute. Al contrario, i sistemi di IA rispondevano spesso con un miscuglio di informazioni corrette e scorrette, e gli utenti faticavano a distinguerle.
Lo studio, condotto nel 2024, non ha utilizzato le versioni più recenti dei chatbot, comprese le novità come ChatGPT Health.
Un secondo parere dall’IA può essere utile
La capacità dei chatbot di porre domande di approfondimento e ottenere dagli utenti i dettagli chiave è uno degli ambiti in cui Wachter vede ancora ampi margini di miglioramento.
"Credo che questi strumenti diventeranno davvero molto efficaci quando saranno un po’ più simili a un medico nel modo in cui interagiscono" con i pazienti, ha affermato.
Per ora, un modo per sentirsi più sicuri sulle informazioni ricevute è consultare più di un chatbot, un po’ come si fa quando si chiede un secondo parere a un altro medico.
"A volte inserisco le stesse informazioni in ChatGPT e in Gemini", ha raccontato Wachter, riferendosi allo strumento di IA di Google. "E quando sono entrambi d’accordo, mi sento un po’ più tranquillo che quella sia la risposta giusta".