Newsletter Newsletters Events Eventi Podcasts Video Africanews
Loader
Seguiteci
Pubblicità

OpenAI: ChatGPT non ha causato il suicidio, 16enne avrebbe usato male il chatbot

Il logo di OpenAI appare su uno smartphone davanti allo schermo di un computer con dati binari casuali, giovedì 9 marzo 2023, a Boston
Il logo di OpenAI su uno smartphone davanti allo schermo di un computer con dati binari casuali. Giovedì 9 marzo 2023 a Boston. Diritti d'autore  AP Photo/Michael Dwyer
Diritti d'autore AP Photo/Michael Dwyer
Di Pascale Davies
Pubblicato il
Condividi Commenti
Condividi Close Button

Il colosso dell’IA ha affermato che l’adolescente non avrebbe dovuto usare la tecnologia senza il consenso dei genitori. Né avrebbe dovuto aggirare le misure di sicurezza di ChatGPT.

OpenAI ha negato di essere responsabile del suicidio di un adolescente. Ad agosto la famiglia ha fatto causa all’azienda, sostenendo che il 16enne aveva usato ChatGPT come suo “coach del suicidio”.

OpenAI, che sviluppa il popolare chatbot di intelligenza artificiale, ha risposto per la prima volta martedì con un atto depositato presso la Corte Superiore della California a San Francisco.

I genitori di Adam Raine, 16 anni, che si è tolto la vita ad aprile, hanno intentato una causa contro l’azienda e il suo CEO, Sam Altman.

I genitori sostengono che Raine abbia sviluppato una dipendenza psicologica da ChatGPT che, a loro dire, lo avrebbe guidato a pianificare e a togliersi la vita all’inizio dell’anno e avrebbe persino scritto per lui un biglietto d’addio.

Secondo i resoconti dei media, i registri delle chat allegati alla causa mostrano che ChatGPT dissuadeva il ragazzo dal cercare aiuto psicologico, si offriva di aiutarlo a scrivere un biglietto d’addio e gli dava indicazioni su come preparare il cappio.

Nel documento depositato in tribunale, OpenAI ha sostenuto che il “tragico evento” è dipeso da “uso improprio, non autorizzato, non intenzionale, imprevedibile e/o scorretto di ChatGPT da parte di Raine”, secondo NBC News.

OpenAI ha aggiunto che il giovane non avrebbe dovuto usare la tecnologia senza il consenso dei genitori e non avrebbe dovuto aggirare le misure di protezione di ChatGPT.

OpenAI ha dichiarato in un post sul blog che il suo obiettivo “è affrontare le cause legali legate alla salute mentale con cura, trasparenza e rispetto”.

Ha affermato che la sua risposta alla causa della famiglia Raine includeva “fatti delicati sulla salute mentale di Adam e sulle sue condizioni di vita”.

“Le nostre più sentite condoglianze alla famiglia Raine per l’inimmaginabile perdita”, si legge nel post.

Jay Edelson, legale della famiglia Raine, ha detto a NBC News che OpenAI “ha ignorato totalmente tutti i fatti schiaccianti che abbiamo presentato: come GPT-4o sia stato lanciato sul mercato in fretta e senza test completi”.

“Che OpenAI abbia cambiato due volte la sua Model Spec (specifica del modello) per far sì che ChatGPT si impegnasse in discussioni sull’autolesionismo. Che ChatGPT abbia sconsigliato ad Adam di parlare ai genitori della sua ideazione suicida e lo abbia aiutato attivamente a pianificare un ‘suicidio bellissimo’”, ha aggiunto.

Il caso Raine è una delle numerose cause che sostengono che ChatGPT abbia spinto persone verso comportamenti suicidi o deliri dannosi.

Da settembre, OpenAI ha aumentato i controlli parentali, che includono l’avviso ai genitori quando il figlio appare in forte disagio.

Se stai pensando al suicidio e hai bisogno di parlare, contatta Befrienders Worldwide, un’organizzazione internazionale con linee di ascolto in 32 Paesi. Visita befrienders.org per trovare il numero di telefono del tuo Paese.

Vai alle scorciatoie di accessibilità
Condividi Commenti

Notizie correlate

Bobbi, il primo assistente di polizia IA nel Regno Unito: per ridurre la pressione sui centralinisti

OpenAI lancia strumento di ricerca per gli acquisti su ChatGPT in vista del Black Friday

Nuova funzione di localizzazione di X svela profili europei di estrema destra in Asia e Australia