NewsletterNewslettersEventsEventiPodcasts
Loader
Seguiteci
PUBBLICITÀ

La Cina usa la censura per verificare se i modelli di AI "incarnano i valori socialisti"

 La Cina sta esaminando i modelli di intelligenza artificiale per i "valori socialisti fondamentali".
La Cina sta esaminando i modelli di intelligenza artificiale per i "valori socialisti fondamentali". Diritti d'autore Canva
Diritti d'autore Canva
Di Pascale Davies
Pubblicato il
Condividi questo articoloCommenti
Condividi questo articoloClose Button
Questo articolo è stato pubblicato originariamente in inglese

In Cina i modelli GenAI devono rispondere a domande su argomenti politici sensibili e sul Presidente Xi Jinping

PUBBLICITÀ

Secondo un rapporto, le aziende di intelligenza artificiale (AI) in Cina sono sottoposte a test da parte del governo per verificare se i loro modelli linguistici di grandi dimensioni (Llm) "incarnano i valori socialisti fondamentali".

Secondo il Financial Times (Ft), sia le start-up che le grandi aziende tecnologiche come ByteDance, proprietaria di TikTok, e Alibaba saranno esaminate dal principale ente governativo di regolamentazione di Internet, la Cyberspace Administration of China (Cac).

I funzionari della Cac testeranno i modelli di intelligenza artificiale per verificare le loro risposte a domande relative a temi politici e al presidente Xi Jinping, tra gli altri.

Pechino testa i modelli AI per verificare la compatibilità con i valori socialisti

Le norme hanno portato i chatbot più popolari in Cina a rifiutare domande su argomenti come le proteste di Piazza Tienanmen del 1989. I Paesi stanno cercando di definire un modello di regolamentazione dell'AI e la Cina è stata tra i primi a stabilire regole per disciplinare l'AI generativa (GenAI), che includevano requisiti come l'adesione ai "valori fondamentali del socialismo".

Un'azienda cinese di AI ha dichiarato all'Ft che il suo modello non ha superato la prima fase di test per ragioni non chiare, ma che ha superato il test dopo aver "indovinato e aggiustato" il modello.

Il rapporto afferma che il "filtraggio di sicurezza", che significa rimuovere le "informazioni problematiche" dai dati di addestramento del modello di AI e poi aggiungere un database di parole sensibili, è il modo per soddisfare i requisiti della politica di censura.

I set di dati per l'addestramento sono più problematici per soddisfare le regole, poiché la maggior parte degli Llm sono addestrati su dati in lingua inglese, hanno dichiarato gli ingegneri al Ft.

La Cac sta cercando di trovare un equilibrio tra la necessità di rendere la Cina un leader competitivo nel campo dell'intelligenza artificiale e il rispetto delle convinzioni socialiste del governo.

I servizi GenAI hanno bisogno di una licenza per operare e se si scopre che forniscono contenuti "illegali", devono adottare misure per smettere di generare tali contenuti e segnalarli all'autorità competente, ha detto la Cac l'anno scorso.

Nonostante i regolamenti, la Cina ha richiesto il maggior numero di brevetti GenAI al mondo, con ByteDance e la start-up Zhipu che hanno sviluppato i propri chatbot di intelligenza artificiale generativa.

Condividi questo articoloCommenti

Notizie correlate

La Cina rassicura gli ispettori farmaceutici tedeschi sulla legge antispionaggio

La Nato investirà un miliardo di euro in intelligenza artificiale, robotica e tech

Le reazioni alla prima legge sull'intelligenza artificiale