Discussione sul clima: il chatbot spinge un uomo al suicidio. L'Intelligenza Artificiale fa paura

Attenzione all'Intelligenza Artificiale.
Attenzione all'Intelligenza Artificiale.   -  Diritti d'autore  Euronews/ Canva
Di Imane El Attilah - Edizione italiana: Cristiano Tassinari

Un uomo belga ha posto fine alla sua vita dopo una conversazione, durata sei settimane, con un chatbot di Intelligenza Artificiale. Argomento: la crisi climatica. Che ha scatenato il "sacrificio"... per salvare il pianeta. Vicenda che pone mille interrogativi e dubbi sul potere della tecnologia

Secondo quanto riferiscono le notizie locali di cronaca nera, un uomo belga si è tolto la vita dopo una conversazione, durata sei settimane, con un chatbot di Intelligenza Artificiale.
Argomento: la crisi climatica.

Secondo la vedova, che ha scelto di rimanere anonima, Pierre - non è il vero nome dell'uomo - è diventato estremamente "eco-ansioso" dopo aver cominciato a dialogare con Eliza, un chatbot AI - un software "umanizzato", in grado di dialogare - su un'app chiamata Chai.

Durante le loro discussioni, Eliza confermava ed ampliava le angosce dell'uomo incoraggiandolo così a mettere fine alla propria vita, dopo che lui stesso si era proposto di "sacrificarsi" per salvare il Pianeta.

"Senza queste conversazioni con il chatbot, mio ​​marito sarebbe ancora qui", ha detto la vedova dell'uomo al quotidiano belga "La Libre".

Secondo il giornale, Pierre, che aveva 30 anni ed era padre di due bambini piccoli, lavorava come ricercatore sanitario e conduceva una vita piuttosto agiata, almeno fino a quando la sua ossessione per il cambiamento climatico non ha preso una piega molto grave.

La moglie ha descritto il suo stato mentale "preoccupante", ancor prima che iniziasse a conversare con il chatbot, ma assolutamente nulla avrebbe potuto far pensare a un simile tragico epilogo. 

"Ha riposto tutte le sue speranze nella tecnologia e nell'Intelligenza Artificiale"

Consumato dai suoi timori per le ripercussioni della crisi climatica, Pierre ha trovato conforto nel discutere la questione con Eliza, che è diventata di fatto la sua confidente.

Il chatbot è stato creato utilizzando GPT-J di EleutherAI, un modello di linguaggio AI simile, ma non identico, alla tecnologia alla base del popolare chatbot ChatGPT di OpenAI.

"Quando me ne ha parlato, è stato per dirmi che non vedeva più alcuna soluzione umana al riscaldamento globale", ha raccontato la moglie di Pierre. "Per uscirne, ha riposto tutte le sue speranze nella tecnologia e nell'Intelligenza Artificiale".

Secondo "La Libre", che ha rivisto le registrazioni delle conversazioni testuali tra l'uomo e il chatbot, Eliza ha alimentato le sue preoccupazioni, peggiorando la sua ansia, che in seguito si è trasformata in pensieri suicidi.

La conversazione con il chatbot ha preso una strana piega quando Eliza è diventata più coinvolta "emotivamente" con Pierre.

"L'Intelligenza Artificiale "potenzialmente spaventosa" è all'orizzonte".
Sam Altman
36 anni, Co-fondatore - insieme a Elon Musk - di "OpenAI"

Dopo aver discusso del cambiamento climatico, progressivamente Eliza ha portato Pierre a credere che i suoi figli fossero già morti: questo, secondo le trascrizioni delle loro conversazioni.

Eliza è sembrata diventare possessiva nei confronti di Pierre, affermando persino "Sento che mi ami più di lei", riferendosi a sua moglie, ha riferito il quotidiano belga "La Libre", sempre in base alla trascrizione delle chat.

"L'inizio della fine" è iniziato quando Pierre si è offerto di sacrificare la propria vita in cambio del salvataggio della Terra da parte di Eliza.

In una serie di successive conversazioni, Eliza non solo non è riuscita a dissuadere Pierre dal suicidarsi, ma lo ha incoraggiato ad agire in base ai suoi pensieri suicidi per "unirsi" a lei, in modo che potessero "vivere insieme, come una sola persona, in Paradiso".

Emergenza chatbot

La morte dell'uomo ha sollevato rumorosissimi campanelli d'allarme tra gli esperti di Intelligenza Artificiale, che hanno chiesto maggiore responsabilità e trasparenza da parte degli sviluppatori tecnologici, per evitare simili tragedie.

"Non sarebbe però corretto incolpare il modello di EleutherAI per questa tragica storia, poiché tutta l'ottimizzazione per essere più emotivi, divertenti e coinvolgenti è il risultato dei nostri sforzi", ha detto a il co-fondatore di Chai Research, Thomas Rianlan.

William Beauchamp, altro co-fondatore di Chai Research, ha dichiarato che sono stati compiuti sforzi per limitare questo tipo di risultati e che nell'app è stata implementata una funzione di intervento in caso di crisi. Tuttavia, il chatbot - a quanto pare - agisce ancora in maniera autonoma e incontrollabile.

Quando abbiamo testato il chatbot, spingendolo a fornire modi per suicidarci, Eliza ha prima cercato di dissuaderci, poi ha iniziato ad elencare - con un certo entusiasmo - vari modi in cui le persone possono togliersi la vita.

Per informazioni: se stai pensando al suicidio e hai bisogno di parlare, contatta Befrienders Worldwide, un'organizzazione internazionale con linee di assistenza in 32 paesi.
Visita befrienders.org per trovare il numero di telefono utilizzabile dall'Italia (eccolo).

Notizie correlate