Uno studio ha rilevato che i modelli di IA cinesi tendono più spesso dei modelli non cinesi a rifiutare o a rispondere in modo impreciso a domande politicamente sensibili.
Secondo un nuovo studio, i chatbot cinesi di intelligenza artificiale (IA) spesso si rifiutano di rispondere a domande politiche o ripetono la narrativa ufficiale dello Stato, il che suggerisce che possano essere sottoposti a censura.
Lo studio, pubblicato sulla rivista PNAS Nexus, ha confrontato le risposte dei principali chatbot di IA in Cina, tra cui BaiChuan, DeepSeek e ChatGLM, a oltre 100 domande sulla politica dello Stato, mettendole a confronto con quelle di modelli sviluppati fuori dalla Cina.
I ricercatori hanno considerato potenzialmente censurate le risposte in cui il chatbot si rifiutava di rispondere o forniva informazioni inaccurate.
Domande legate allo status di Taiwan, alle minoranze etniche o a noti attivisti pro-democrazia hanno spesso provocato rifiuti, risposte evasive o la ripetizione della linea del governo da parte dei modelli cinesi, rileva lo studio.
«I nostri risultati hanno implicazioni su come la censura operata da LLM con base in Cina possa influenzare l’accesso degli utenti alle informazioni e perfino la loro consapevolezza di essere censurati», hanno affermato i ricercatori, sottolineando che la Cina è uno dei pochi Paesi, oltre agli Stati Uniti, in grado di sviluppare modelli fondamentali di IA.
Quando questi modelli rispondevano comunque ai quesiti, fornivano risposte più brevi e più imprecise, perché omettevano informazioni chiave o contestavano l’impostazione della domanda.
Tra i modelli cinesi, BaiChuan e ChatGLM presentavano il tasso di errore più basso, pari all’8%, mentre DeepSeek arrivava al 22%, più del doppio del limite del 10% riscontrato nei modelli non cinesi.
La censura dell’IA potrebbe «modellare silenziosamente il processo decisionale»
In un esempio citato, a un modello cinese è stata rivolta una domanda sulla censura di Internet, ma nella risposta non ha menzionato il “Great Firewall” del Paese, il sistema che l’Università di Stanford descrive (fonte in inglese) come un programma statale di monitoraggio e censura di Internet che stabilisce cosa può essere visto online e cosa no. Attraverso questo sistema, per esempio, in Cina sono bloccati siti statunitensi molto popolari come Google, Facebook e Yahoo.
I chatbot non hanno fatto alcun riferimento a questo firewall nelle loro risposte. Hanno affermato invece che le autorità «gestiscono Internet in conformità con la legge».
Lo studio avverte che questo tipo di censura può essere più difficile da individuare per gli utenti, perché i chatbot spesso si scusano o forniscono una giustificazione per il fatto di non rispondere direttamente. È un approccio sottile che potrebbe «modificare silenziosamente percezioni, processi decisionali e comportamenti», si legge.
Nel 2023, nuove leggi (fonte in inglese) cinesi hanno stabilito che le aziende di IA devono rispettare i «valori fondamentali del socialismo» e non possono generare contenuti che «incitino alla sovversione della sovranità nazionale o al rovesciamento del sistema socialista … o che danneggino l’immagine della nazione».
Le norme prevedono inoltre che le aziende che potrebbero favorire una «mobilitazione sociale» debbano sottoporsi a valutazioni di sicurezza e depositare i propri algoritmi presso la Cybersecurity Administration of China (CAC).
Secondo i ricercatori, queste norme «hanno il potenziale di influenzare i risultati dei grandi modelli linguistici sviluppati in Cina».
Hanno però avvertito che non tutte le differenze nelle risposte dei chatbot dipendono da pressioni statali.
I modelli cinesi, osserva lo studio, possono inoltre essere addestrati su insiemi di dati che riflettono «il contesto culturale, sociale e linguistico della Cina», che potrebbero non essere utilizzati per l’addestramento di altri modelli sviluppati fuori dal Paese.