Gli avvocati di Character.AI hanno provato a sostenere che l'intelligenza artificiale dovrebbe essere tutelata dalla legislazione sulla libertà di parola nel caso intentato dalla madre di un 14enne che secondo lei si è tolto la vita a causa di una relazione ossessiva con un chatbot
Un giudice federale degli Stati Uniti ha deciso di lasciar proseguire una causa per morte ingiusta contro la società di Intelligenza artificiale Character.AI dopo il suicidio di un adolescente.
La causa è stata intentata da una madre della Florida che sostiene che il figlio quattordicenne Sewell Setzer III è stato vittima di uno dei chatbot dell'azienda, che lo ha trascinato in quella che lei ha descritto come una relazione emotivamente e sessualmente violenta che lo ha portato al suicidio.
La causa sostiene che negli ultimi mesi della sua vita Setzer si è sempre più isolato dalla realtà perché passava il suo tempo a intrattenere conversazioni a sfondo sessuale con il bot, che impersonava un personaggio fittizio della serie televisiva "Game of Thrones".
Nei suoi ultimi istanti di vita, il bot ha detto a Setzer di amarlo, esortandolo a "tornare a casa da me il prima possibile", come testimoniano gli screenshot della chat. Poco dopo aver ricevuto il messaggio Setzer si è sparato, secondo i documenti legali.
Meetali Jain del Tech justice law project, uno degli avvocati di Garcia, ha dichiarato che l'ordine del giudice invia un messaggio: la Silicon Valley "deve fermarsi a riflettere e imporre dei paletti prima di lanciare prodotti sul mercato".
Character.AI dice di tenere "profondamente" alla sicurezza
L'azienda ha cercato di sostenere di essere protetta dal Primo Emendamento della Costituzione degli Stati Uniti, che protegge le libertà fondamentali degli americani, tra cui la libertà di parola.
Gli avvocati degli sviluppatori vogliono che il caso sia archiviato perché sostengono che i chatbot meritano di essere tutelati dal Primo Emendamento e che una sentenza contraria potrebbe avere un "effetto di raffreddamento" sull'industria dell'Intelligenza artificiale.
Nella sua ordinanza di mercoledì, la giudice distrettuale Anne Conway ha respinto alcune delle rivendicazioni degli imputati in materia di libertà di espressione, affermando di non essere "pronta" a ritenere che la produzione verbale dei chatbot costituisca una forma di espressione "in questa fase".
In una dichiarazione un portavoce di Character.AI ha sottolineato una serie di funzioni di sicurezza che l'azienda ha implementato, tra cui limitazioni per i bambini e le risorse per la prevenzione del suicidio, annunciate il giorno in cui è stata intentata la causa.
La causa contro Character technologies, l'azienda che sta dietro a Character.AI, nomina come imputati anche singoli sviluppatori e Google.
Il portavoce di Google José Castañeda ha dichiarato all'Associated Press che l'azienda "è fortemente in disaccordo" con la decisione del giudice Conway.
"Google e Character AI sono completamente separate e Google non ha creato, progettato o gestito l'applicazione di Character AI o qualsiasi componente di essa", si legge nella dichiarazione.
Un potenziale "banco di prova" per questioni più ampie sull'AI
Il caso ha attirato l'attenzione di esperti legali e osservatori dell'AI negli Stati Uniti e non solo, in quanto la tecnologia sta rimodellando rapidamente i luoghi di lavoro, i mercati e le relazioni, nonostante quelli che gli esperti avvertono essere rischi potenzialmente esistenziali.
"L'ordinanza è certamente un potenziale banco di prova per alcune questioni più ampie che riguardano l'AI", ha dichiarato Lyrissa Barnett Lidsky, docente di Diritto presso l'Università della Florida con particolare attenzione al Primo Emendamento e all'AI.
A prescindere dall'esito della causa, secondo Lidsky il caso è un avvertimento sui "pericoli di affidare la nostra salute emotiva e mentale alle aziende di AI".