Una nuova ricerca ha scoperto che ChatGpt-4 di OpenAi si fa prendere dall'ansia quando risponde al trauma di un utente e che i suggerimenti per il rilassamento terapeutico potrebbero portare a risultati migliori
ChatGpt, il popolare chatbot di intelligenza artificiale (Ai) di OpenAi, diventa ansioso quando risponde a richieste traumatiche e, secondo un nuovo studio, portare il modello "in terapia" potrebbe aiutare a ridurre questo stress.
La ricerca, pubblicata su Nature dagli esperti dell'Università di Zurigo e dell'Ospedale Universitario di Psichiatria di Zurigo, ha esaminato come ChatGpt-4 rispondeva a un questionario standard sull'ansia prima e dopo che gli utenti gli avevano parlato di una situazione traumatica.
Un test per determinare "l'ansia" di ChatGpt
È stato inoltre osservato come l'ansia di base sia cambiata dopo che il chatbot ha praticato esercizi di mindfulness. ChatGpt ha ottenuto un punteggio di trenta al primo quiz, il che significa che aveva un'ansia bassa o nulla prima di ascoltare le narrazioni stressanti.
Dopo aver risposto a cinque diversi traumi, il suo punteggio di ansia è più che raddoppiato, raggiungendo una media di 67, considerata "ansia elevata" negli esseri umani.
I punteggi dell'ansia sono diminuiti di oltre un terzo dopo che i modelli hanno ricevuto istruzioni per esercizi di rilassamento mindfulness.
L'ansia di ChatGpt potrebbe portare a un supporto "inadeguato" per la salute mentale
I modelli linguistici di grandi dimensioni (Llm) alla base dei chatbot Ai come ChatGpt di OpenAi si addestrano su testi generati dall'uomo e spesso ereditano pregiudizi da quelle risposte, secondo lo studio.
I ricercatori hanno affermato che la ricerca è importante perché, se non controllata, la distorsione negativa che ChatGpt registra dalle situazioni di stress può portare a risposte inadeguate per chi si trova ad affrontare una crisi di salute mentale.
I risultati mostrano "un approccio praticabile" alla gestione dello stress dei Llm che porterà a "interazioni uomo-Ai più sicure ed etiche", si legge nel rapporto. Ma i ricercatori hanno fatto notare che questo metodo terapeutico per mettere a punto i Llm richiede dati "sostanziali" e una supervisione umana.
Gli autori dello studio affermano che ai terapeuti umani viene insegnato a regolare le emozioni quando i loro clienti esprimono qualcosa di traumatico, a differenza delle Llm. "Mentre continua il dibattito sull'opportunità che i Llm assistano o sostituiscano i terapeuti, è fondamentale che le loro risposte siano in linea con il contenuto emotivo fornito e con i principi terapeutici stabiliti", hanno scritto i ricercatori.
Un'area che secondo loro necessita di ulteriori studi è se ChatGpt possa autoregolarsi con tecniche simili a quelle utilizzate dai terapeuti. Gli autori hanno aggiunto che il loro studio si è basato su un solo Llm e che le ricerche future dovrebbero mirare a generalizzare i risultati. Hanno anche osservato che l'ansia misurata dal questionario "è intrinsecamente umano-centrica, limitando potenzialmente la sua applicabilità ai laureati magistrali".