EventsEventiPodcasts
Loader
Find Us
PUBBLICITÀ

AI: i ricercatori del MIT creano un chatbot per parlare con l'io del futuro

I ricercatori del MIT hanno utilizzato l'intelligenza artificiale per creare un chatbot in cui è possibile parlare con l'io del futuro
I ricercatori del MIT hanno utilizzato l'intelligenza artificiale per creare un chatbot in cui è possibile parlare con l'io del futuro Diritti d'autore Canva
Diritti d'autore Canva
Di Oceane Duboust
Pubblicato il
Condividi questo articoloCommenti
Condividi questo articoloClose Button
Questo articolo è stato pubblicato originariamente in inglese

I ricercatori del MIT hanno utilizzato l'intelligenza artificiale per creare un chatbot in cui è possibile parlare con il proprio "io futuro", portando gli utenti a sentirsi meno ansiosi o demotivati dopo la chat

PUBBLICITÀ

Avete mai sognato di parlare con il vostro io futuro che ha già vissuto fino a 60 anni? Un gruppo di ricercatori del Massachusetts Institute of Technology (MIT), negli Stati Uniti, potrebbe offrirvi il modo più vicino possibile per provare questa esperienza.

Per farlo hanno utilizzato l'intelligenza artificiale per simulare una conversazione naturale. Nel particolare si sono serviti del popolare modello GPT-3.5 sviluppato dalla società OpenAI e hanno posto ai partecipanti allo studio una serie di domande sulla loro vita, sulle loro esperienze passate e sulle loro aspirazioni. Il sistema ha quindi creato "una storia dell'utente", che gli autori dello studio hanno definito "una memoria sintetica".

Un esempio: un utente potrebbe aspirare a diventare un insegnante di biologia al liceo: il chatbot AI del futuro può quindi raccontare un "momento memorabile" in cui l'insegnante ha portato gli studenti in gita in una riserva naturale.

La continuità del futuro

I ricercatori del MIT hanno ricavato la "continuità del futuro", un concetto della scienza comportamentale secondo cui gli individui che sentono un forte legame tra il loro sé presente e quello futuro sono più inclini a prendere decisioni che favoriscono il loro benessere a lungo termine, sia esso finanziario, educativo o sanitario.

"Gli esseri umani spesso hanno difficoltà a immaginare il proprio futuro in modo vivido. Questa limitazione può portare a un pregiudizio cognitivo, noto come 'sconto temporale', che a sua volta porta le persone a dare priorità alle ricompense immediate rispetto ai benefici a lungo termine", ha dichiarato a Euronews Next Ivo Vlaev, professore di scienze comportamentali presso l'Università di Warwick nel Regno Unito.

Il chatbot creato dai ricercatori del MIT, che include un'immagine del profilo alterata per presentare al partecipante una versione del se stesso sessantenne, è in grado di ridurre l'attualizzazione temporale.

"Quando le persone interagiscono con una versione di loro stessi in età digitale, possono far sentire il futuro più tangibile e immediato, riducendo così la distanza psicologica tra il sé presente e quello futuro", ha aggiunto Vlaev.

Per il professore, il chatbot incarna l'idea di un nudge o di un intervento sottile progettato per guidare il comportamento in modi benefici, che potrebbe portare gli utenti a prendere decisioni migliori rendendo il sé futuro più rilevante per il presente.

Miglioramento del benessere

In un documento pre-print non ancora sottoposto a peer-review, il team del MIT ha testato l'esperimento su 344 persone di età compresa tra i 18 e i 30 anni.

Gli scienziati hanno osservato che "gli utenti hanno riportato una diminuzione dell'ansia" dopo aver avuto una conversazione con il loro sé digitale più anziano, nonché una riduzione delle "emozioni negative" o del senso di demotivazione.

Sebbene siano necessarie ulteriori ricerche per conoscere meglio i risultati, Vlaev ha affermato che l'efficacia dipenderà probabilmente dalla capacità del chatbot di sembrare autentico.

"L'uso di un'immagine di età digitale è un tocco intelligente, in quanto la visualizzazione di se stessi nel futuro può aumentare ulteriormente il senso di continuità e realismo - ha affermato Vlaev -. Tuttavia, non è chiaro se le persone abbiano fatto qualcosa di diverso, cambiato il loro comportamento, come risultato dell'interazione con il loro io futuro".

Nella sezione dello studio dedicata alle considerazioni etiche i ricercatori hanno sottolineato la necessità di prestare attenzione ai contenuti generati dall'AI che potrebbero avallare comportamenti negativi o dannosi.

Condividi questo articoloCommenti

Notizie correlate

G7 in Puglia, il Papa sull'Intelligenza artificiale: bandire le armi letali autonome

Intelligenza artificiale, nasce il modello che si addestra in italiano

Un anno di ChatGPT: l'intelligenza artificiale è una minaccia?