Newsletter Newsletters Events Eventi Podcasts Video Africanews
Loader
Seguiteci
Pubblicità

Studio: l’IA è una minaccia esistenziale per i sondaggi, imita quasi perfettamente le risposte umane

Sondaggi online a rischio: strumenti di IA ingannano i sistemi, spacciandosi per umani e falsando i risultati.
Una nuova ricerca mostra che gli strumenti di IA possono ingannare i sistemi online. Li inducono a credere di interagire con esseri umani e alterano i risultati dei sondaggi. Diritti d'autore  Canva
Diritti d'autore Canva
Di Anca Ulea
Pubblicato il
Condividi Commenti
Condividi Close Button

«Non possiamo più fidarci che le risposte ai sondaggi provengano da persone reali», ha detto il primo autore di un nuovo studio dell’Università di Dartmouth.

Secondo una nuova ricerca, l’intelligenza artificiale rende quasi impossibile distinguere le risposte umane da quelle dei bot nei sondaggi online di opinione pubblica.

Uno studio della Dartmouth University, pubblicato lunedì su Proceedings of the National Academy of Sciences, mostra che i modelli linguistici di grandi dimensioni (LLM) possono compromettere su larga scala i sondaggi di opinione.

"Possono imitare identità umane, eludere i metodi di rilevazione attuali ed essere programmati con facilità per alterare sistematicamente gli esiti dei sondaggi online", si legge nello studio.

I risultati rivelano una "vulnerabilità critica nella nostra infrastruttura dei dati", ponendo una "potenziale minaccia esistenziale alla ricerca online non supervisionata", ha dichiarato l’autore dello studio Sean Westwood, professore associato di scienze politiche a Dartmouth.

Le interferenze dell’AI nei sondaggi potrebbero aggiungere un ulteriore livello di complessità a elezioni cruciali. Gruppi di monitoraggio online hanno già segnalato campagne di disinformazione alimentate dall’AI nelle elezioni europee, compresa di recente in Moldavia.

Come l’AI inganna il sistema dei sondaggi online

Per testare la vulnerabilità dei software di sondaggio online, Westwood ha progettato e realizzato un “rispondente sintetico autonomo”, un semplice strumento di AI che opera da un prompt di 500 parole.

Per ogni sondaggio, lo strumento adottava un profilo demografico basato su informazioni assegnate casualmente: età, genere, origine etnica, istruzione, reddito e stato di residenza.

Con questo profilo, simulava tempi di lettura realistici, generava movimenti del mouse simili a quelli umani e digitava risposte aperte tasto dopo tasto, con refusi plausibili e correzioni.

In oltre 43.000 test, lo strumento ha ingannato il 99,8% dei sistemi, che lo hanno classificato come umano. Non ha commesso alcun errore nelle prove di logica e ha aggirato le misure di sicurezza tradizionali pensate per rilevare risposte automatizzate, come reCAPTCHA.

"Non sono bot rudimentali", ha detto Westwood. "Ragionano su ogni domanda e si comportano come persone reali e scrupolose, facendo apparire i dati del tutto legittimi".

Possiamo ancora fidarci dei risultati dei sondaggi?

Lo studio ha esaminato la vulnerabilità pratica dei sondaggi politici, prendendo come esempio le presidenziali statunitensi del 2024.

Secondo Westwood, sarebbero bastate da 10 a 52 risposte fasulle generate dall’AI per ribaltare l’esito previsto dell’elezione in sette tra i principali sondaggi nazionali, nella settimana finale cruciale della campagna.

Ognuno di questi rispondenti automatizzati sarebbe costato appena 5 centesimi di dollaro (4 centesimi di euro) per essere attivato.

Nei test, i bot hanno funzionato anche se programmati in russo, in cinese mandarino o in coreano. Hanno prodotto risposte in inglese perfetto. Secondo lo studio, ciò significa che potrebbero essere sfruttati con facilità da attori stranieri, alcuni dei quali dispongono delle risorse per progettare strumenti ancora più sofisticati per eludere il rilevamento.

Anche la ricerca scientifica si basa in larga misura sui dati dei sondaggi, con migliaia di studi con revisione paritaria pubblicati ogni anno sulla base di dati raccolti online.

"Con dati di sondaggio contaminati dai bot, l’AI può avvelenare l’intero ecosistema della conoscenza", ha detto Westwood.

Il suo studio sostiene che la comunità scientifica deve sviluppare con urgenza nuovi metodi di raccolta dei dati che non possano essere manipolati da strumenti avanzati di AI.

"La tecnologia per verificare la reale partecipazione umana esiste; serve solo la volontà di applicarla", ha aggiunto Westwood.

"Se agiamo ora, possiamo preservare sia l’integrità dei sondaggi sia la responsabilità democratica che essi garantiscono".

Vai alle scorciatoie di accessibilità
Condividi Commenti

Notizie correlate

L'era della verifica dell'età: quali Paesi dell'UE limitano l'accesso ai siti per adulti?

Anthropic: hacker cinesi filogovernativi hanno usato la sua IA per un massiccio attacco informatico

Le aziende tedesche sono indifese contro i cyberattacchi, manca la manodopera qualificata