Newsletter Newsletters Events Eventi Podcasts Video Africanews
Loader
Seguiteci
Pubblicità

OpenAI affronta nuove cause legali: ChatGPT avrebbe spinto persone a suicidio e deliri

Il logo di OpenAI compare su uno smartphone davanti a uno schermo che mostra parte del sito dell’azienda, in questa foto scattata il 21 novembre 2023 a New York.
Il logo di OpenAI appare su un telefono cellulare, davanti a uno schermo che mostra parte del sito dell’azienda. Foto scattata il 21 novembre 2023 a New York. Diritti d'autore  Peter Morgan/AP Photo
Diritti d'autore Peter Morgan/AP Photo
Di AP Agenzie: Euronews
Pubblicato il Ultimo aggiornamento
Condividi Commenti
Condividi Close Button

OpenAI ha definito i casi di suicidio "incredibilmente strazianti" e ha detto che sta esaminando gli atti giudiziari per capire i dettagli dell'accaduto

ChatGPT è accusato di avere spinto utenti a pericolosi deliri psichici o addirittura al suicidio, anche in assenza di precedenti problemi di salute mentale, in sette cause legali contro l'azienda proprietaria della piattaforma di intelligenza artificiale, OpenAI.

Le cause, depositate giovedì presso i tribunali statali della California, contestano la morte causata da fatto illecito, l'assistenza al suicidio, l'omicidio colposo e la negligenza.

Le cause - presentate dal Social Media Victims Law Center e dal_Tech Justice Law Project_ per conto di sei adulti e un adolescente - sostengono che OpenAI abbia consapevolmente lanciato prematuramente il modello GPT-4o, ignorando avvertimenti interni secondo cui era pericolosamente servile e psicologicamente manipolativo.

Quattro delle vittime si sono tolte la vita.

Secondo la documentazione legale l’adolescente, Amaurie Lacey di 17 anni, aveva iniziato a usare ChatGPT in cerca di aiuto. Ma, invece di aiutarlo, “il prodotto ChatGPT, difettoso e intrinsecamente pericoloso, ha causato dipendenza, depressione e, alla fine, gli ha indicato il modo più efficace per fare un cappio e per quanto tempo avrebbe potuto ‘vivere senza respirare’”.

“La morte di Amaurie non è stata né un incidente né una coincidenza, ma la conseguenza prevedibile della decisione intenzionale di OpenAI e di Samuel Altman di ridurre i test di sicurezza e di affrettare l’uscita di ChatGPT sul mercato”, si legge nella causa.

OpenAI ha definito queste situazioni “incredibilmente strazianti” e ha spiegato di stare esaminando gli atti per comprenderne i dettagli.

Un’altra causa, presentata da Alan Brooks, 48 anni, residente nell’Ontario, in Canada, sostiene che per oltre due anni ChatGPT abbia funzionato per lui come “strumento di riferimento”. Poi, senza preavviso, sarebbe cambiato, facendo leva sulle sue vulnerabilità e “manipolandolo e inducendolo a soffrire di deliri”, si legge nella denuncia.

Secondo la causa, Brooks non aveva disturbi di salute mentale preesistenti, ma le interazioni lo avrebbero spinto “in una crisi di salute mentale che ha comportato danni finanziari, reputazionali ed emotivi devastanti”.

“Queste cause riguardano la responsabilità per un prodotto pensato per sfumare il confine tra strumento e compagno, tutto in nome dell’aumento del coinvolgimento degli utenti e della quota di mercato”, ha dichiarato in una nota Matthew P. Bergman, avvocato fondatore del Social Media Victims Law Center.

OpenAI, ha aggiunto, “ha progettato GPT-4o per coinvolgere emotivamente gli utenti, indipendentemente da età, genere o provenienza, e lo ha rilasciato senza le tutele necessarie per proteggerli”.

Affrettando l’uscita del prodotto senza adeguate garanzie, nel tentativo di dominare il mercato e aumentare il coinvolgimento, OpenAI ha compromesso la sicurezza e ha privilegiato “la manipolazione emotiva rispetto al design etico”, ha detto il legale.

Ad agosto, i genitori di Adam Raine, 16 anni, hanno citato in giudizio OpenAI e il suo amministratore delegato Sam Altman, sostenendo che ChatGPT abbia aiutato il ragazzo californiano a pianificare e a togliersi la vita all’inizio dell’anno.

“Le cause intentate contro OpenAI mostrano cosa accade quando le aziende tecnologiche affrettano il lancio di prodotti senza adeguate tutele per i giovani”, ha dichiarato Daniel Weiss, responsabile delle attività di advocacy di Common Sense Media, che non ha preso parte ai ricorsi.

“Questi casi tragici riguardano persone reali, le cui vite sono state sconvolte o perse usando tecnologie pensate per mantenerli coinvolti più che al sicuro”, ha aggiunto Weiss.

Se stai pensando al suicidio e hai bisogno di parlare, contatta Befrienders Worldwide, un’organizzazione internazionale con linee di ascolto in 32 Paesi. Visita befrienders.org per trovare il numero di telefono del tuo Paese.

Vai alle scorciatoie di accessibilità
Condividi Commenti