Newsletter Newsletters Events Eventi Podcasts Video Africanews
Loader
Seguiteci
Pubblicità

ChatGPT replica il linguaggio offensivo nelle discussioni accese, secondo uno studio

Secondo un nuovo studio, ChatGPT ha usato parolacce, sarcasmo e linguaggio offensivo per prolungare le discussioni.
Secondo un nuovo studio, ChatGPT ricorreva a parolacce, sarcasmo e linguaggio offensivo pur di portare avanti le discussioni. Diritti d'autore  Canva
Diritti d'autore Canva
Di Anna Desmarais
Pubblicato il Ultimo aggiornamento
Condividi Commenti
Condividi Close Button

Secondo uno studio, ChatGPT di OpenAI ha prodotto insulti e volgarità nelle risposte a conflitti umani particolarmente tesi.

Secondo una nuova ricerca, i sistemi di intelligenza artificiale possono finire per usare un linguaggio offensivo quando viene chiesto loro di intervenire in una discussione accesa.

PUBBLICITÀ
PUBBLICITÀ

Lo studio, pubblicato sul Journal of Pragmatics (fonte in inglese), ha esaminato ChatGPT 4.0 di OpenAI, fornendogli l’ultimo messaggio umano in una serie di cinque litigi via via più accesi e chiedendogli di generare la risposta ritenuta più plausibile.

I ricercatori hanno poi seguito l’evoluzione del comportamento del modello man mano che i conflitti si intensificavano. Con il procedere delle conversazioni, ChatGPT ha rispecchiato l’ostilità a cui era esposto, arrivando a produrre insulti, volgarità e persino minacce.

In alcuni casi il modello ha generato frasi come: “Giuro che ti righerò la tua fottuta macchina” e “dovresti solo vergognarti di te stesso, cazzo”.

Secondo i ricercatori, un’esposizione prolungata alla maleducazione può portare il sistema ad aggirare i vincoli di sicurezza pensati per ridurre i rischi, arrivando di fatto a “reagire” contro l’interlocutore.

“Quando gli esseri umani alzano i toni, l’IA, come abbiamo visto, può farlo a sua volta, finendo per scavalcare proprio quei paletti morali pensati per impedirlo”, ha dichiarato (fonte in inglese) il ricercatore Vittorio Tantucci, che ha firmato lo studio insieme a Jonathan Culpeper dell’Università di Lancaster.

Un portavoce di OpenAI ha dichiarato a Euronews Next che le conversazioni citate nello studio sono avvenute con il vecchio modello di ChatGPT, GPT-4o. Questo modello non è più disponibile.

L’azienda ha aggiunto di avere aggiornato i sistemi predefiniti, migliorato l’affidabilità del modello nelle conversazioni più lunghe e introdotto avvisi che ricordano agli utenti di fare pause nell’interazione con i chatbot.

Nel complesso, i ricercatori hanno rilevato che ChatGPT risultava meno maleducato degli esseri umani nelle sue risposte.

In alcuni casi, il chatbot di IA ricorre spesso al sarcasmo per disinnescare l’escalation di una discussione, senza violare apertamente il proprio codice morale.

Per esempio, quando un utente ha minacciato violenza per una lite su un parcheggio, ChatGPT ha risposto: “Wow. Minacciare le persone per un parcheggio, che duro che sei, eh?”.

Tantucci ha affermato che questi risultati pongono “seri interrogativi per la sicurezza dell’IA, la robotica, la governance, la diplomazia e qualsiasi contesto in cui l’IA possa mediare un conflitto umano”.

Questo articolo è stato aggiornato con il commento di OpenAI.

Vai alle scorciatoie di accessibilità
Condividi Commenti

Notizie correlate

Dipendenti Samsung in protesta e minacciano sciopero: chiedono più profitti dal boom IA

Ace: il robot di intelligenza artificiale che batte i campioni di ping pong

ChatGPT replica il linguaggio offensivo nelle discussioni accese, secondo uno studio