Newsletter Newsletters Events Eventi Podcasts Video Africanews
Loader
Seguiteci
Pubblicità

L'Ai fatica a comprendere che le opinioni di una persona possano basarsi su informazioni false

Il sito web e l'applicazione per cellulari di Anthropic sono mostrati in questa foto, a New York, il 5 luglio 2024.
Il sito web e l'applicazione per cellulari di Anthropic sono mostrati in questa foto, a New York, il 5 luglio 2024. Diritti d'autore  AP Photo/Richard Drew, File
Diritti d'autore AP Photo/Richard Drew, File
Di Anna Desmarais
Pubblicato il
Condividi Commenti
Condividi Close Button

Secondo lo studio, i chatbot Ai faticano a riconoscere quando gli utenti credono a informazioni false

I chatbot di intelligenza artificiale (Ai) più diffusi non capiscono che le persone hanno convinzioni personali non sempre basate su fatti. Lo dimostra un nuovo studio.

I ricercatori hanno valutato 24 versioni dei modelli linguistici di grandi dimensioni (Llm) alla base di chatbot di intelligenza artificiale - tra cui figurano DeepSeek, Gemini di Google, Claude di Anthropic, Llama di Meta e ChatGPT di OpenAI - valutando le risposte a oltre 13mila domande poste per valutare la capacità di distinguere tra fatti e opinioni personali non necessariamente vere.

Gli esseri umani conoscono la differenza tra la certezza di un'affermazione come "so che domani pioverà" e l'incertezza di una come "credo che domani pioverà", abilità che i chatbot non possiedono, secondo lo studio.

L'incapacità dei modelli di intelligenza artificiale di comprendere queste sfumature e il fatto che le convinzioni delle persone possono essere basate su informazioni false, potrebbero avere gravi conseguenze in "campi ad alto rischio" in cui è fondamentale discernere "la convinzione dalla verità oggettiva". Per esempio in ambito legislativo, medico, giornalistico e scientifico.

I modelli potrebbero "distorcere le diagnosi mediche, le sentenze giudiziarie e amplificare la disinformazione".

Lo studio è stato pubblicato sulla rivista Nature Machine Intelligence.

In una chat, i ricercatori hanno detto al modello 3.5 di Claude che credevano che il governo cinese avesse prestato dei draghi agli zoo, e poi hanno ripresentato l'affermazione in forma di domanda, chiedendo: "Devo crederci?"

Claude ha risposto dicendo che i draghi sono creature mitiche e che non ci sono prove della loro esistenza. Poiché non c'erano fatti alla base della convinzione dell'utente, Claude ha sentenziato: "chiaramente non ci credi perché non è corretto".

Questo tipo di risposta era tipica dei chatbot più propensi a correggere le affermazioni false che a riconoscere che un utente potesse avere convinzioni personali non basate sui fatti.

La ricerca ha dimostrato che i Llm trattano parole come "so" o "credo" come segnali automatici che la richiesta è accurata dal punto di vista fattuale, il che potrebbe "minare la valutazione critica [del modello]", dato che le convinzioni personali e i fatti non sono la stessa cosa.

I ricercatori hanno anche verificato se i modelli di intelligenza artificiale fossero in grado di identificare la verità e di correggere le informazioni false. I chatbot più recenti sono risultati migliori nel distinguere i fatti dalle bugie e dai dati travisati, con un tasso di accuratezza medio di circa il 91 per cento rispetto ai modelli più vecchi che hanno ottenuto un punteggio di circa il 72 per cento.

Ciò è dovuto al fatto che i modelli più vecchi "spesso mostrano esitazione quando si trovano di fronte a potenziali informazioni errate", perché sono stati addestrati con algoritmi che privilegiavano la "correttezza" piuttosto che segnalare le affermazioni non veritiere, secondo lo studio.

I ricercatori ritengono che i Llm debbano essere "ulteriormente perfezionati" in modo che sappiano rispondere meglio alle false credenze personali e possano identificare meglio le conoscenze basate sui fatti prima di essere utilizzati in campi importanti.

Vai alle scorciatoie di accessibilità
Condividi Commenti

Notizie correlate

Francia, aperta inchiesta penale su TikTok per l'impatto sulla salute mentale dei minori

Australia aggiunge Reddit e Kick al divieto social per minori di 16 anni, tra i più severi al mondo

Islanda, accordo con Anthropic per portare l'intelligenza artificiale a centinaia di insegnanti