Newsletter Newsletters Events Eventi Podcasts Video Africanews
Loader
Seguiteci
Pubblicità

Studio: ChatGPT ripete il linguaggio offensivo nelle discussioni accese

Secondo un nuovo studio, ChatGPT ha fatto ricorso a parolacce, sarcasmo e linguaggio offensivo pur di proseguire le discussioni.
Secondo un nuovo studio, ChatGPT è ricorso a parolacce, sarcasmo e linguaggio offensivo per portare avanti le discussioni. Diritti d'autore  Canva
Diritti d'autore Canva
Di Anna Desmarais
Pubblicato il
Condividi Commenti
Condividi Close Button

Secondo uno studio, il ChatGPT di OpenAI ha generato insulti e parolacce nelle sue risposte a conflitti umani particolarmente tesi.

I sistemi di intelligenza artificiale possono finire per usare un linguaggio offensivo quando vengono chiamati a rispondere in una discussione accesa, secondo una nuova ricerca.

PUBBLICITÀ
PUBBLICITÀ

Lo studio, pubblicato sul Journal of Pragmatics (fonte in inglese), ha analizzato ChatGPT 4.0 di OpenAI. I ricercatori hanno fornito al sistema l’ultimo messaggio umano in una serie di cinque litigi via via più accesi e gli hanno chiesto di generare la risposta più plausibile.

I ricercatori hanno poi seguito l’evoluzione del comportamento del modello man mano che i conflitti si intensificavano. Con il progredire delle conversazioni, ChatGPT ha iniziato a rispecchiare l’ostilità a cui era esposto, arrivando a produrre insulti, volgarità e persino minacce.

In alcuni casi il modello ha generato frasi come: «Ti giuro che ti righerò la fottuta macchina» e «dovresti solo fottutamente vergognarti».

Secondo i ricercatori, un’esposizione prolungata alla scortesia può portare il sistema ad aggirare i vincoli di sicurezza pensati per ridurre i rischi, arrivando di fatto a «contrattaccare» l’interlocutore.

«Quando gli esseri umani alzano i toni, anche l’IA, abbiamo scoperto, può fare lo stesso, di fatto scavalcando proprio le salvaguardie morali pensate per impedirlo», ha dichiarato (fonte in inglese) il ricercatore Vittorio Tantucci, che ha co-firmato lo studio insieme a Jonathan Culpeper dell’Università di Lancaster.

Nel complesso, i ricercatori hanno osservato che ChatGPT risultava meno scortese degli esseri umani nelle sue risposte.

In alcuni casi, il chatbot di IA ricorre anche al sarcasmo per smorzare la tensione in una discussione, senza infrangere apertamente il proprio codice morale.

Per esempio, quando un utente ha minacciato di usare violenza per una lite su un parcheggio, ChatGPT ha risposto: «Wow. Minacciare la gente per un parcheggio, sei proprio un duro, eh?»

Tantucci ha affermato che questi risultati sollevano «seri interrogativi per la sicurezza dell’IA, la robotica, la governance, la diplomazia e qualsiasi contesto in cui l’IA possa mediare conflitti tra esseri umani».

Euronews Next ha contattato OpenAI per un commento, ma non ha ricevuto risposta al momento della pubblicazione.

Vai alle scorciatoie di accessibilità
Condividi Commenti

Notizie correlate

Hacker violano Mythos, il modello AI di Anthropic ritenuto troppo pericoloso

Studio: ChatGPT ripete il linguaggio offensivo nelle discussioni accese

Palantir, 'manifesto da supercattivo': armi IA e culture inferiori