ChatGpt diffama un sindaco australiano, l'IA potrebbe finire in tribunale

ChatGPT
ChatGPT Diritti d'autore REUTERS/Dado Ruvic/Illustration/File Photo
Diritti d'autore REUTERS/Dado Ruvic/Illustration/File Photo
Di Natalie Huet
Condividi questo articoloCommenti
Condividi questo articoloClose Button

Il sistema di IA ha sostenuto erroneamente che il politico era stato condannato per aver pagato tangenti e che è stato condannato a 30 mesi di carcere

PUBBLICITÀ

ChatGPT ha attirato l'attenzione del mondo con la sua capacità di generare istantaneamente testi, battute e poesie dal suono umano e persino di superare gli esami universitari. 

Un'altra delle caratteristiche di questo chatbot di intelligenza artificiale (AI), tuttavia, è la sua tendenza a inventare completamente le cose causando anche problemi legali a OpenAI, la società che gestisce il tutto. Si tratta di un'organizzazione senza fini di lucro di ricerca sull'intelligenza artificiale con lo scopo di lucro.

Un **sindaco australiano,**Brian Hood, ha minacciato di intentare la prima causa per diffamazione contro OpenAI a meno che non corregga le false affermazioni di ChatGPT per le false affermazioni su di lui.

Il sistema di IA ha sostenuto erroneamente che il politico era stato condannato per aver pagato tangenti e che è stato condannato a 30 mesi di carcere. In realtà, Brian Hood, sindaco di Hepburn Shire a 120 km da Melboune, non è mai stato accusato di alcun crimine ed è stato in realtà l'informatore che ha contribuito a scoprire uno scandalo di corruzione internazionale legato alla Reserve Bank of Australia nei primi anni 2000.

A Euronews Next ha racconta di questa esperienza che gli ha causato un'estrema angoscia, soprattutto come funzionario eletto. "Sono rimasto davvero scioccato. Non ci potevo credere. Ho dovuto leggerlo e rileggerlo, fare un'altra domanda perché non mi aspettavo questo tipo di affermazioni".

"La propria reputazione è importante per tutti. Ma quando ci si trova in quel tipo di posizione, allora lo diventa ancora di più, si è profondamente consapevoli di ciò che le persone potrebbero pensare e credere. Quindi è molto allarmante e molto angosciante ", ha concluso di sindaco.

"Sono rimasto davvero scioccato. Non ci potevo credere. Ho dovuto leggerlo e rileggerlo, perché non mi aspettavo questo tipo di affermazioni".
Brian Hood
Sindaco di Hepburn Shire

Questo caso è l'ultimo esempio di un elenco sempre più numerose di chatbot di intelligenza artificiale che pubblicano false accuse su persone. Un chatbot ha recentemente inventato un falso caso di molestie sessuali che coinvolge un professore di legge negli Stati Uniti, citando un articolo del Washington Post che non è mai esistito come fonte.

Gli avvocati hanno affermato di aver inviato una lettera al proprietario di ChatGPT, OpenAI, il 21 marzo, concedendo alla società 28 giorni per correggere gli errori sul loro cliente o affrontare una possibile causa per diffamazione.

Il Sindaco Hood ha affermato che la sua stessa esperienza gli ha fatto perdere fiducia nei chatbot di intelligenza artificiale. "Penso che si debba fare molto per rafforzare la precisione di questi chatbot. È urgente perché possono davvero danneggiare la reputazione delle persone. Se può succedere a me, può succedere a chiunque".

OpenAI non ha per ora fornito alcun commento. Euronews Next è stato in grado di confermare le affermazioni di Hood utilizzando la versione disponibile al pubblico di ChatGPT, che riporta disclaimer che avvertono che il chatbot "può occasionalmente generare informazioni errate".

Perché ChatGPT non è affidabile?

ChatGPT è un cosiddetto modello di linguaggio di grandi dimensioni che è diventato molto popolare dal suo lancio lo scorso anno.

Microsoft ha integrato ChatGPT nel suo motore di ricerca Bing a febbraio e il CEO di Google Sundar Pichai ha dichiarato al Wall Street Journal che intende anche integrare la propria tecnologia AI nel suo motore di ricerca. Alcuni utenti e ricercatori hanno scoperto che spesso delira, dice cose assurde e inesistenti, mai accadute.

Euronews Next ha chiesto a ChatGPT di questo difetto. Nella sua risposta, ChatGPT ha dichiarato: "Questo accade perché ChatGPT ha letto così tante cose diverse, e a volte si confonde su cosa dovrebbe dire. È un po' come quando stai sognando e le cose non hanno sempre senso - non è reale, ma è ancora nella tua testa". Ecco perché serve cambiare. E’ come quando un alunno sbaglia e l’insegnante lo corregge. Lo stesso deve essere fatto con ChatGPT, può essere corretto dagli umani quando commette un errore. 

Danni per diffamazione

Se Hood intentasse una causa, accuserebbe ChatGPT di dare agli utenti un falso senso di accuratezza, ha affermato James Naughton, un partner dello studio legale che segue Hood. 

I risarcimenti australiani per i danni per diffamazione sono generalmente limitati a circa a $ 400.000 (€ 244.800). Hood non conosce il numero esatto di persone che ha avuto accesso alle false informazioni su di lui - un fattore determinante per l'entità del pagamento - ma la natura delle dichiarazioni diffamatorie è abbastanza grave da poter richiedere più di A $ 200.000 (€ 122.400), ha detto l'avvocato Naughton.

Risorse addizionali per questo articolo • Reuters

Condividi questo articoloCommenti

Notizie correlate

Boom di utenti per Shein in Europa: stretta dalla Commissione europea

Elezioni Ue: come si sta preparando l'Europa a possibili campagne di disinformazione?

Elezioni Ue, attenti alle fake news dell'intelligenza artificiale: ChatGPT, Gemini e Copilot fanno disinformazione secondo uno studio sui chatbot di AI