Newsletter Newsletters Events Eventi Podcasts Video Africanews
Loader
Seguiteci
Pubblicità

TikTok lancia funzione di fact-checking in crowdsourcing: come funziona

Il logo di TikTok è visibile su un telefono cellulare davanti allo schermo di un computer che visualizza la schermata iniziale di TikTok, il 14 ottobre 2022, a Boston.
Il logo di TikTok è visibile su un telefono cellulare davanti allo schermo di un computer che visualizza la schermata iniziale di TikTok, il 14 ottobre 2022, a Boston. Diritti d'autore  AP Photo/Michael Dwyer, File
Diritti d'autore AP Photo/Michael Dwyer, File
Di Anna Desmarais
Pubblicato il
Condividi questo articolo Commenti
Condividi questo articolo Close Button

TikTok è l'ultima piattaforma di social media che consente agli utenti di scrivere e valutare i post per dare un contesto ai contenuti dei loro feed. Vediamo come funziona il crowd-sourced fact-checking.

PUBBLICITÀ

TikTok è l'ultima piattaforma di social media a lanciare una funzione di fact-checking in crowdsourcing.

L'app per i video di breve durata sta lanciando la funzione, chiamata Footnotes, prima negli Stati Uniti. Gli utenti possono scrivere una nota con un contesto più ampio su un video e votare se altri commenti debbano apparire sotto un video.

Una nota a piè di pagina potrebbe condividere il punto di vista di un ricercatore su un "complesso argomento Stem" o evidenziare nuove statistiche per fornire un quadro più completo su un evento in corso, ha dichiarato l'azienda.

La nuova funzione è simile ad altre funzioni di fact-checking basate sulla comunità su piattaforme di social media come Facebook o Instagram di X e Meta. Ma perché i giganti dei social media si stanno orientando verso questo nuovo sistema di verifica delle affermazioni online?

Che cos'è il fact-checking comunitario

Scott Hale, professore associato presso l'Oxford Internet Institute, ha dichiarato che Twitter, ora X, ha iniziato la corsa alle note comunitarie nel 2021 con una funzione chiamata Birdwatch. L'esperimento è proseguito dopo che Elon Musk ha assunto il controllo della società nel 2022.

Otavio Vinhas, ricercatore presso l'Istituto Nazionale di Scienza e Tecnologia in Controversie Informatiche e Sovranità in Brasile, ha affermato che l'introduzione di un programma di note della comunità da parte di Meta all'inizio di quest'anno è in linea con una tendenza guidata dal presidente degli Stati Uniti Donald Trump a muoversi verso una visione più libertaria della libertà di parola sui social media.

"La richiesta è che le piattaforme si impegnino in questa (visione libertaria)", ha detto Vinhas a Euronews Next. "Per loro, una moderazione equa sarebbe una moderazione che dà priorità alla libertà di parola senza preoccuparsi molto dei potenziali danni o delle potenziali false affermazioni che può far emergere", ha aggiunto il ricercatore.

Hale ha detto che ci sono alcune prove scientifiche dietro il crowdsourcing, con studi che dimostrano che le folle possono spesso arrivare al verdetto giusto quando valutano se le informazioni sono ben controllate o meno. Spesso concordano con i professionisti.

Ma Footnotes di TikTok è leggermente diverso da altre iniziative di crowdsourcing su Meta o X, ha detto Vinhas. Questo perché il programma chiede ancora agli utenti di aggiungere la fonte dell'informazione per la loro nota, cosa che Vinhas dice non essere obbligatoria su X.

La maggior parte delle note non finisce sulle piattaforme

Secondo Hale, la sfida per tutte le aziende di social media consiste nel far sì che le note vengano visualizzate dalle persone giuste. Tutti e tre i programmi di community utilizzano un sistema di classificazione a ponte che valuta la somiglianza con un altro utente in base ai contenuti che quest'ultimo consuma, in base agli altri account che segue o ai video che guarda, ha detto il professore.

L'algoritmo mostra il contenuto a utenti considerati "dissimili" per vedere se entrambi trovano la nota utile, ha detto Hale. Le note che superano il test saranno visibili sulla piattaforma. Ciò che tende a succedere, però, è che la stragrande maggioranza delle note scritte sulla piattaforma in realtà non viene mai vista, ha detto Vinhas.

Uno studio di giugno del Digital democracy institute of the Americas (Ddia) sulle note della comunità inglese e spagnola su X ha rilevato che oltre il 90 per cento degli 1,7 milioni di note disponibili su un database pubblico non è mai stato messo online.

Le note che sono arrivate alla piattaforma hanno impiegato in media 14 giorni per essere pubblicate, rispetto ai 100 giorni del 2022, anche se ci sono ancora ritardi nella velocità di risposta di X a queste note, continua il rapporto del Ddia.

"Non credo che queste piattaforme possano raggiungere la promessa di portare il consenso e rendere Internet un mercato di idee in cui le migliori informazioni e le migliori idee finiscono per vincere la discussione", ha detto Vinhas.

Hale ha detto che può essere difficile per gli utenti imbattersi in note che potrebbero contraddire il loro punto di vista a causa delle "camere dell'eco" sui social media, dove vengono mostrati contenuti che rafforzano le convinzioni che gli utenti hanno già. "È molto facile entrare in reti che sono simili a noi", ha detto il professore.

Un modo per migliorare l'efficienza delle note della comunità sarebbe quello di renderle un gioco, ha continuato Hale. Ha suggerito che le piattaforme potrebbero seguire l'esempio di Wikipedia, dove gli utenti che contribuiscono hanno una propria pagina con le loro modifiche.

La piattaforma offre anche una serie di premi di servizio agli editor in base al valore dei loro contributi e alla durata del loro servizio, e permette loro di partecipare a concorsi e raccolte di fondi.

Cos'altro fanno i siti di social media per moderare i contenuti sulle loro piattaforme

Secondo Hale e Vinhas, il fact-checking comunitario non è l'unico metodo utilizzato dalle aziende di social media per limitare la diffusione di contenuti errati o disinformativi sulle loro piattaforme. Meta, X e TikTok utilizzano tutti un certo grado di moderazione automatica per distinguere i contenuti potenzialmente dannosi o violenti.

Per quanto riguarda Meta, l'azienda ha dichiarato di affidarsi a sistemi di intelligenza artificiale (Ai) per analizzare i contenuti in modo proattivo e rimuoverli immediatamente se corrispondono a violazioni note degli standard della comunità o del codice di condotta.

Quando i contenuti vengono segnalati, i moderatori umani esaminano i singoli post per verificare se il contenuto viola effettivamente il codice o se manca un contesto. Hale ha detto che può essere difficile per i sistemi automatici segnalare nuovi contenuti problematici perché riconoscono le ripetute affermazioni di disinformazione su cui sono stati addestrati, il che significa che nuove menzogne possono sfuggire.

Secondo Hale, anche gli utenti stessi possono segnalare alle piattaforme la presenza di un contenuto che potrebbe violare gli standard della comunità. Ma Meta ha affermato che le note della comunità sostituiranno i rapporti con i fact-checker tradizionali, che hanno segnalato ed etichettato la disinformazione per quasi un decennio negli Stati Uniti.

Finora non ci sono segnali che la piattaforma intenda porre fine a queste collaborazioni nel Regno Unito e nell'Unione Europea, secondo quanto riportato dai media. Hale e Vinhas hanno affermato che il fact-checking professionale e le note della comunità possono effettivamente completarsi a vicenda, se fatte in modo corretto.

In questo caso, le piattaforme possono contare su una comunità di persone impegnate che aggiungono il contesto nelle note e sul rigore dei fact-checker professionisti che possono compiere ulteriori passi, come chiamare esperti o andare direttamente a una fonte per verificare se qualcosa è vero o meno, ha aggiunto Hale.

I fact-checker professionisti spesso sono in grado di valutare anche il contesto politico, sociale ed economico dei Paesi in cui si svolgono le campagne di disinformazione, ha detto Vinhas. "I verificatori di fatti monitoreranno attivamente (una) crisi politica quasi 24 ore su 24, mentre gli utenti potrebbero non essere altrettanto impegnati nell'integrità delle informazioni".

Per il momento, Vinhas ha detto che il modello di TikTok è incoraggiante perché viene utilizzato per contribuire a un "programma globale di fact-checking", ma ha detto che non ci sono indicazioni se questo continuerà ad essere il caso.

Vai alle scorciatoie di accessibilità
Condividi questo articolo Commenti

Notizie correlate

Allarme social: algoritmi spingono i giovani verso contenuti su suicidio e autolesionismo

Romania, Nato e disinformazione: la propaganda russa diffonde falsi contenuti di Euronews in rete

Perché i prodotti tecnologici arrivano tardi in Europa?