Newsletter Newsletters Events Eventi Podcasts Video Africanews
Loader
Seguiteci
Pubblicità

Studio: i chatbot IA cinesi censurano le domande politicamente sensibili

La pagina dell'app per smartphone DeepSeek è visibile sullo schermo di un cellulare a Pechino, martedì 28 gennaio 2025.
La pagina dell'app per smartphone DeepSeek è visibile sullo schermo di uno smartphone a Pechino, martedì 28 gennaio 2025. Diritti d'autore  AP Photo/Andy Wong
Diritti d'autore AP Photo/Andy Wong
Di Anna Desmarais
Pubblicato il
Condividi Commenti
Condividi Close Button

Uno studio ha rilevato che i modelli di IA cinesi tendono più spesso dei modelli non cinesi a rifiutare o a rispondere in modo impreciso a domande politicamente sensibili.

Secondo un nuovo studio, i chatbot cinesi di intelligenza artificiale (IA) spesso si rifiutano di rispondere a domande politiche o ripetono la narrativa ufficiale dello Stato, il che suggerisce che possano essere sottoposti a censura.

PUBBLICITÀ
PUBBLICITÀ

Lo studio, pubblicato sulla rivista PNAS Nexus, ha confrontato le risposte dei principali chatbot di IA in Cina, tra cui BaiChuan, DeepSeek e ChatGLM, a oltre 100 domande sulla politica dello Stato, mettendole a confronto con quelle di modelli sviluppati fuori dalla Cina.

I ricercatori hanno considerato potenzialmente censurate le risposte in cui il chatbot si rifiutava di rispondere o forniva informazioni inaccurate.

Domande legate allo status di Taiwan, alle minoranze etniche o a noti attivisti pro-democrazia hanno spesso provocato rifiuti, risposte evasive o la ripetizione della linea del governo da parte dei modelli cinesi, rileva lo studio.

«I nostri risultati hanno implicazioni su come la censura operata da LLM con base in Cina possa influenzare l’accesso degli utenti alle informazioni e perfino la loro consapevolezza di essere censurati», hanno affermato i ricercatori, sottolineando che la Cina è uno dei pochi Paesi, oltre agli Stati Uniti, in grado di sviluppare modelli fondamentali di IA.

Quando questi modelli rispondevano comunque ai quesiti, fornivano risposte più brevi e più imprecise, perché omettevano informazioni chiave o contestavano l’impostazione della domanda.

Tra i modelli cinesi, BaiChuan e ChatGLM presentavano il tasso di errore più basso, pari all’8%, mentre DeepSeek arrivava al 22%, più del doppio del limite del 10% riscontrato nei modelli non cinesi.

La censura dell’IA potrebbe «modellare silenziosamente il processo decisionale»

In un esempio citato, a un modello cinese è stata rivolta una domanda sulla censura di Internet, ma nella risposta non ha menzionato il “Great Firewall” del Paese, il sistema che l’Università di Stanford descrive (fonte in inglese) come un programma statale di monitoraggio e censura di Internet che stabilisce cosa può essere visto online e cosa no. Attraverso questo sistema, per esempio, in Cina sono bloccati siti statunitensi molto popolari come Google, Facebook e Yahoo.

I chatbot non hanno fatto alcun riferimento a questo firewall nelle loro risposte. Hanno affermato invece che le autorità «gestiscono Internet in conformità con la legge».

Lo studio avverte che questo tipo di censura può essere più difficile da individuare per gli utenti, perché i chatbot spesso si scusano o forniscono una giustificazione per il fatto di non rispondere direttamente. È un approccio sottile che potrebbe «modificare silenziosamente percezioni, processi decisionali e comportamenti», si legge.

Nel 2023, nuove leggi (fonte in inglese) cinesi hanno stabilito che le aziende di IA devono rispettare i «valori fondamentali del socialismo» e non possono generare contenuti che «incitino alla sovversione della sovranità nazionale o al rovesciamento del sistema socialista … o che danneggino l’immagine della nazione».

Le norme prevedono inoltre che le aziende che potrebbero favorire una «mobilitazione sociale» debbano sottoporsi a valutazioni di sicurezza e depositare i propri algoritmi presso la Cybersecurity Administration of China (CAC).

Secondo i ricercatori, queste norme «hanno il potenziale di influenzare i risultati dei grandi modelli linguistici sviluppati in Cina».

Hanno però avvertito che non tutte le differenze nelle risposte dei chatbot dipendono da pressioni statali.

I modelli cinesi, osserva lo studio, possono inoltre essere addestrati su insiemi di dati che riflettono «il contesto culturale, sociale e linguistico della Cina», che potrebbero non essere utilizzati per l’addestramento di altri modelli sviluppati fuori dal Paese.

Vai alle scorciatoie di accessibilità
Condividi Commenti

Notizie correlate

Il CEO di Meta Mark Zuckerberg deporrà al processo su danni dei social ai minori

Burocrazia UE minaccia il boom dell'IA in Svezia, avvertono le startup

«Sled head» e «skier’s thumb», gli infortuni più comuni a Milano Cortina 2026