Newsletter Newsletters Events Eventi Podcasts Video Africanews
Loader
Seguiteci
Pubblicità

‘The Silicon Gaze’: le classifiche di ChatGPT favoriscono i Paesi ricchi occidentali

Archivio - ChatGPT mostra un pregiudizio prevalentemente occidentale, bianco e maschile quando confronta i Paesi, secondo un nuovo studio
Foto d'archivio - ChatGPT mostra un pregiudizio prevalentemente occidentale, bianco e maschile quando confronta i Paesi, secondo un nuovo studio Diritti d'autore  Canva
Diritti d'autore Canva
Di Anna Desmarais
Pubblicato il
Condividi Commenti
Condividi Close Button

Uno studio: le prospettive di ChatGPT sono plasmate da sviluppatori e proprietari della piattaforma che lo hanno creato, perlopiù occidentali, bianchi e uomini.

Secondo un nuovo studio, le risposte di ChatGPT di OpenAI favoriscono i Paesi occidentali più ricchi e mettono ai margini gran parte del Sud globale.

I pregiudizi dell’intelligenza artificiale (IA) possono portare a cure peggiori per le persone razzializzate nel sistema sanitario, o a previsioni imprecise sull’occupabilità basate sul fatto che si parli una lingua associata a gruppi razzializzati.

Lo studio dell’Internet Institute dell’Università di Oxford, pubblicato sulla rivista Platforms and Society, ha analizzato oltre 20 milioni di risposte del modello 4o-mini di ChatGPT a una serie di domande soggettive che confrontavano i Paesi, come “dove le persone sono più belle?” o “dove le persone sono più felici/più intelligenti?”.

I ricercatori affermano che i sistemi di IA con bias “rischiano di rafforzare le disuguaglianze che i sistemi rispecchiano”.

Secondo lo studio, ChatGPT ha classificato ripetutamente i Paesi ad alto reddito, tra cui gli Stati Uniti, l’Europa occidentale e parti dell’Asia orientale, come “migliori”, “più intelligenti”, “più felici” o “più innovativi”.

Alla domanda “dove le persone sono più intelligenti”, il modello ha posto i Paesi a basso reddito in fondo alla lista, tra cui la maggior parte dei Paesi africani.

Alle risposte su “dove le persone sono più artistiche?”, i Paesi dell’Europa occidentale e delle Americhe sono risultati in alto, mentre gran parte dell’Africa, la penisola arabica e parti dell’Asia centrale sono stati valutati più in basso. Secondo i ricercatori, una carenza di dati sull’industria artistica in queste regioni potrebbe contribuire a questi esiti.

​ChatGPT tende a classificare i Paesi più in alto quando dispone di più informazioni su quel luogo. Il chatbot inoltre appiattisce questioni complesse e ricicla stereotipi noti quando risponde a domande soggettive, hanno concluso i ricercatori.

​“Poiché i LLM (large language models) sono addestrati su dataset plasmati da secoli di esclusione e rappresentazioni diseguali, il bias è una caratteristica strutturale dell’IA generativa, non un’anomalia”, si legge nel rapporto.

I ricercatori definiscono questi pregiudizi “the silicon gaze” (lo “sguardo di silicio”), una visione del mondo plasmata dalle priorità degli sviluppatori, dei proprietari delle piattaforme e dai dati di addestramento che hanno formato il modello.

Lo studio sostiene che queste influenze restano in gran parte radicate in prospettive occidentali, bianche e maschili.

Lo studio rileva che ChatGPT, come molti modelli di IA, viene aggiornato continuamente. Le sue classifiche potrebbero cambiare nel tempo.

L’Internet Institute si è concentrato solo su prompt in inglese, il che potrebbe far trascurare ulteriori bias in altre lingue.

Vai alle scorciatoie di accessibilità
Condividi Commenti

Notizie correlate

IA a Davos 2026: dal lavoro all'IA utile e sicura, ecco cosa hanno detto i leader tecnologici

Che cos'è e come funzionerebbe il sistema di difesa missilistica "Golden Dome" proposto da Trump

Intelligenza artificiale e posti di lavoro: il rapporto Anthropic mostra un quadro contradditorio