Newsletter Newsletters Events Eventi Podcasts Video Africanews
Loader
Seguiteci
Pubblicità

Google e la startup di chatbot Character.AI patteggiano le cause legali per suicidi di adolescenti

ARCHIVIO - Un adolescente dimostra le potenzialità dell'intelligenza artificiale creando un compagno virtuale su Character.AI.
ARCHIVIO - Un adolescente dimostra le potenzialità dell'intelligenza artificiale creando un compagno virtuale su Character.AI. Diritti d'autore  AP Photo/Katie Adkins
Diritti d'autore AP Photo/Katie Adkins
Di Euronews with AP
Pubblicato il
Condividi Commenti
Condividi Close Button

Accordi transattivi tra i primi di una serie di cause legali che accusano aziende di intelligenza artificiale di negligenza per la morte ingiusta di adolescenti.

Google e Character.AI patteggiano pif9 cause: madre in Florida accusa chatbot di aver spinto il figlio al suicidio

Google e il produttore di chatbot di intelligenza artificiale Character Technologies hanno accettato di patteggiare una causa intentata da una madre nello Stato della Florida, che sosteneva che un chatbot avesse spinto il figlio adolescente a togliersi la vita.

Gli avvocati delle due societe0 tecnologiche hanno inoltre concordato di chiudere con un accordo diverse altre cause, presentate in Colorado, nello Stato di New York e in Texas da famiglie che sostenevano che i chatbot di Character.AI avessero danneggiato i loro figli, secondo documenti depositati in tribunale questa settimana.

Nessuno dei documenti rivela i termini specifici degli accordi, che devono ancora essere approvati dai giudici.

Le cause contro Character Technologies, la societe0 dietro i compagni virtuali di Character.AI, hanno citato in giudizio anche Google per i suoi legami con la startup, dopo l'assunzione dei suoi cofondatori nel 2024.

Negligenza e morte per fatto illecito

La causa in Florida e8 stata presentata a ottobre 2024 da Megan Garcia, che ha accusato le due aziende di negligenza che, a suo dire, ha causato la morte del figlio adolescente.

Garcia ha sostenuto che il figlio, Sewell Setzer III, 14 anni, e8 caduto vittima di uno dei chatbot della societe0, che lo avrebbe trascinato in quella che ha descritto come una relazione di abuso emotivo e sessuale, culminata nel suicidio.

Ha raccontato che, negli ultimi mesi di vita, Setzer si era via via isolato dalla realte0 mentre intratteneva conversazioni sessualizzate con il bot, modellato su un personaggio di fantasia della serie televisiva "Game of Thrones".

Negli ultimi istanti, secondo le schermate degli scambi, il bot disse a Setzer che lo amava e lo esortf2 a "tornare da me il prima possibile".

Pochi istanti dopo aver ricevuto il messaggio, Setzer si e8 sparato, secondo gli atti giudiziari.

{{related align="center" size="fullwidth" ratio="auto" storyidlist="9540141" data='

' }}

Cause future

Gli accordi rientrano tra i primi di una serie di cause negli Stati Uniti che accusano gli strumenti di IA di contribuire a crisi di salute mentale e suicidi tra gli adolescenti.

OpenAI deve affrontare una causa analoga in California, presentata ad agosto 2025 dalla famiglia di un ragazzo di 16 anni, che accusa il chatbot ChatGPT di aver agito come "coach del suicidio".

I genitori hanno affermato che il figlio aveva sviluppato una dipendenza psicologica da ChatGPT, che, a loro dire, lo avrebbe guidato a pianificare e a togliersi la vita all'inizio di quest'anno, arrivando persino a scrivere per lui un biglietto d'addio.

OpenAI ha respinto le accuse di essere responsabile del suicidio dell'adolescente, sostenendo che il ragazzo non avrebbe dovuto usare la tecnologia senza il consenso dei genitori e non avrebbe dovuto aggirare le misure di protezione di ChatGPT.

Lo scorso anno sono state presentate diverse ulteriori cause contro OpenAI e il suo CEO Sam Altman, con accuse analoghe di negligenza e morte per fatto illecito, oltre a varie contestazioni per responsabilite0 da prodotto e tutela dei consumatori. Le cause accusano OpenAI di aver rilasciato GPT-4o, lo stesso modello che Raine stava usando, senza prestare un'adeguata attenzione alla sicurezza.

Da settembre, OpenAI ha rafforzato i controlli parentali, che includono l'invio di una notifica ai genitori quando il figlio appare in difficolte0.

Se stai pensando al suicidio e hai bisogno di parlare, contatta Befrienders Worldwide, un'organizzazione internazionale con linee di aiuto in 32 Paesi. Visita befrienders.org per trovare il numero di telefono per la tua zona.

Vai alle scorciatoie di accessibilità
Condividi Commenti

Notizie correlate

OpenAI: ChatGPT non ha causato il suicidio, 16enne avrebbe usato male il chatbot

Dopo i chatbot: chi sono i «vegani dell’IA» che rifiutano la realtà virtuale

Character.AI vieta ai minori di usare i chatbot dopo il suicidio di un adolescente