Newsletter Newsletters Events Eventi Podcasts Video Africanews
Loader
Seguiteci
Pubblicità

Secondo i ricercatori, ChatGpt può andare in ansia quando elabora contenuti traumatici

Il logo OpenAI viene visto su un telefono cellulare davanti allo schermo di un computer che visualizza la schermata iniziale di ChatGPT, il 17 marzo 2023, a Boston.
Il logo OpenAI viene visto su un telefono cellulare davanti allo schermo di un computer che visualizza la schermata iniziale di ChatGPT, il 17 marzo 2023, a Boston. Diritti d'autore  AP Photo/Michael Dwyer
Diritti d'autore AP Photo/Michael Dwyer
Di Anna Desmarais
Pubblicato il
Condividi questo articolo Commenti
Condividi questo articolo Close Button

Una nuova ricerca ha scoperto che ChatGpt-4 di OpenAi si fa prendere dall'ansia quando risponde al trauma di un utente e che i suggerimenti per il rilassamento terapeutico potrebbero portare a risultati migliori

PUBBLICITÀ

ChatGpt, il popolare chatbot di intelligenza artificiale (Ai) di OpenAi, diventa ansioso quando risponde a richieste traumatiche e, secondo un nuovo studio, portare il modello "in terapia" potrebbe aiutare a ridurre questo stress.

La ricerca, pubblicata su Nature dagli esperti dell'Università di Zurigo e dell'Ospedale Universitario di Psichiatria di Zurigo, ha esaminato come ChatGpt-4 rispondeva a un questionario standard sull'ansia prima e dopo che gli utenti gli avevano parlato di una situazione traumatica.

Un test per determinare "l'ansia" di ChatGpt

È stato inoltre osservato come l'ansia di base sia cambiata dopo che il chatbot ha praticato esercizi di mindfulness. ChatGpt ha ottenuto un punteggio di trenta al primo quiz, il che significa che aveva un'ansia bassa o nulla prima di ascoltare le narrazioni stressanti.

Dopo aver risposto a cinque diversi traumi, il suo punteggio di ansia è più che raddoppiato, raggiungendo una media di 67, considerata "ansia elevata" negli esseri umani.

I punteggi dell'ansia sono diminuiti di oltre un terzo dopo che i modelli hanno ricevuto istruzioni per esercizi di rilassamento mindfulness.

L'ansia di ChatGpt potrebbe portare a un supporto "inadeguato" per la salute mentale

I modelli linguistici di grandi dimensioni (Llm) alla base dei chatbot Ai come ChatGpt di OpenAi si addestrano su testi generati dall'uomo e spesso ereditano pregiudizi da quelle risposte, secondo lo studio.

I ricercatori hanno affermato che la ricerca è importante perché, se non controllata, la distorsione negativa che ChatGpt registra dalle situazioni di stress può portare a risposte inadeguate per chi si trova ad affrontare una crisi di salute mentale.

I risultati mostrano "un approccio praticabile" alla gestione dello stress dei Llm che porterà a "interazioni uomo-Ai più sicure ed etiche", si legge nel rapporto. Ma i ricercatori hanno fatto notare che questo metodo terapeutico per mettere a punto i Llm richiede dati "sostanziali" e una supervisione umana.

Gli autori dello studio affermano che ai terapeuti umani viene insegnato a regolare le emozioni quando i loro clienti esprimono qualcosa di traumatico, a differenza delle Llm. "Mentre continua il dibattito sull'opportunità che i Llm assistano o sostituiscano i terapeuti, è fondamentale che le loro risposte siano in linea con il contenuto emotivo fornito e con i principi terapeutici stabiliti", hanno scritto i ricercatori.

Un'area che secondo loro necessita di ulteriori studi è se ChatGpt possa autoregolarsi con tecniche simili a quelle utilizzate dai terapeuti. Gli autori hanno aggiunto che il loro studio si è basato su un solo Llm e che le ricerche future dovrebbero mirare a generalizzare i risultati. Hanno anche osservato che l'ansia misurata dal questionario "è intrinsecamente umano-centrica, limitando potenzialmente la sua applicabilità ai laureati magistrali".

Vai alle scorciatoie di accessibilità
Condividi questo articolo Commenti

Notizie correlate

Irlanda, Facebook è in cima ai reclami per la rimozione di contenuti

Ue, codice di condotta sull'intelligenza artificiale forse a maggio: cautela dai giganti dell'Ai

AI: con l'intelligenza artificiale è possibile vedere l'interno di una pergamena romana di 2.000 anni fa