I traumi psicologici dei moderatori di Facebook, troppi video violenti da vedere: denunciata Meta

Ci sono cose che è meglio non vedere.
Ci sono cose che è meglio non vedere. Diritti d'autore Unsplash
Di Laura LlachEdizione italiana: Cristiano Tassinari
Condividi questo articoloCommenti
Condividi questo articoloClose Button
Questo articolo è stato pubblicato originariamente in inglese

Oltre il 20% del personale Meta assunto per controllare i contenuti violenti di Facebook e Instagram è in congedo per malattia, a causa di un trauma mentale. In molti hanno denunciato l'azienda, per non aver fornito adeguato sostegno psicologico

PUBBLICITÀ

Oltre il 20% del personale Meta assunto per controllare i contenuti inappropriati e violenti di Facebook e Instagram è in congedo per malattia: a causa di un trauma psicologico.

L'unico requisito richiesto da Facebook per lavorare come moderatore di contenuti, nell'ufficio di Barcellona, è la conoscenza della lingua spagnola (e un po' di catalano).

Sembrava una posizione interessante, con uno stipendio che può raggiungere i 2.400 euro al mese, per la visione di 300-500 video al giorno.

Tuttavia, quella che sembrava una buona opportunità di lavoro si è rivelata una decisione sbagliata per molti dei lavoratori che hanno ottenuto il lavoro a Barcellona.

Più del 20% del personale della CCC Barcelona Digital Services - di proprietà di Telsus, la società che Meta ha assunto per controllare i contenuti di Facebook e Instagram - è in congedo per malattia a causa di un trauma psicologico.

Le immagini pubblicate sui social network che avrebbero dovuto controllare mostravano il peggio dell'umanità: video di omicidi, smembramenti, stupri e suicidi in diretta.

"In uno dei video, un padre mostra il suo bambino di un anno. Gli pianta un coltello nel petto, gli strappa il cuore e se lo mangia", ha dichiarato a Euronews, Francesc Feliu, avvocato di oltre una dozzina di lavoratori che hanno deciso di fare causa all'azienda.

I dipendenti di Meta hanno criticato le condizioni di lavoro imposte dall'azienda ai moderatori di contenuti, lasciati estremamente esposti a gravi problemi di salute mentale, come il disturbo da stress post-traumatico, il disturbo ossessivo-compulsivo e la depressione.

"Stiamo parlando di persone che erano sane e, all'improvviso, compaiono questi disturbi mentali. Alcuni di questi lavoratori hanno tentato il suicidio", afferma l'avvocato Feliu.

"Questo lavoro di controllo sta producendo decine e decine di persone relativamente giovani che soffrono di disturbi mentali. È estremamente grave", aggiunge.

"A cosa stai pensando?"
"A cosa stai pensando?"Unsplash

La prima denuncia europea

Chris Gray ha iniziato a lavorare per CPL, l'appaltatore con cui Facebook collaborava in Irlanda, nel 2017. Il suo contratto come moderatore di contenuti è durato un anno.

Chris, irlandese, oggi 50enne, è stato il primo a portare il social network in tribunale.

Quando ha iniziato a lavorare, i video costituivano solo il 20% dei contenuti che doveva esaminare, lavorando per lo più con testi, foto e qualche video in diretta.

Le immagini che gli sono rimaste impresse sono quelle di migranti torturati con una barra di metallo infuocata o di cani bolliti vivi.

"Non mi ero reso conto di quanto mi avesse colpito. Solo più tardi mi sono reso conto di essere un disastro, ero molto stressato. Non riuscivo a dormire e sono diventato molto aggressivo. Se qualcuno parlava del mio lavoro, dopo piangevo", ha raccontato Chris Gray a Euronews.

Quando si è reso conto di non farcela più, ha provato a rivolgersi allo psicologo dell'azienda: "Ho compilato dei questionari dicendo che mi sentivo sopraffatto dal lavoro. Ma ci sono voluti secoli per ottenere un appuntamento con qualcuno".

Come Gray, altri 35 moderatori di contenuti si sono rivolti all'Alta Corte irlandese, dove Meta ha la sua sede europea.

"Abbiamo clienti da Irlanda, Polonia, Germania e Spagna. Alcuni di loro si sono resi conto che il lavoro li danneggiava dopo poche settimane, altri sostengono di non essersi resi conto dell'impatto fino a quando la famiglia e gli amici non hanno detto che la loro personalità era cambiata", afferma Diane Treanor, avvocato della Coleman Legal che rappresenta Chris Gray.

PUBBLICITÀ

L'impossibilità di accedere a un supporto psicologico è un aspetto di cui si sono lamentati anche i lavoratori spagnoli.

"Quando guardavano un video, molte di queste persone crollavano, non riuscivano proprio ad andare avanti. Lo psicologo li ascoltava e poi diceva loro che quello che stavano facendo era estremamente importante per la società, che dovevano immaginare che quello che stavano vedendo non era reale, bensì un film, e che dovevano tornare al lavoro", raccontaa l'avvocato spagnolo.

Inoltre, i lavoratori non sono stati sottoposti a test preliminari per verificare se le persone assunte avessero problemi di salute mentale pregressi, cosa che potrebbe renderli inadatti al lavoro.

Tuttavia, contattato da Euronews, Facebook afferma di essere al lavoro con Telsus per risolvere urgentemente il problema.
"Prendiamo sul serio il supporto dei revisori di contenuti e richiediamo a tutte le aziende con cui collaboriamo di fornire un supporto in loco 24 ore su 24, 7 giorni su 7, da parte di operatori qualificati".

Questione di app.
Questione di app.Unsplash

"Ti segna per tutta la vita"

I lavoratori affermano che, anche dopo cinque anni aver mollato il lavoro, molti sono ancora in trattamento psicologico. Alcuni hanno persino paura di uscire per strada.

PUBBLICITÀ

"Questo tipo di contenuti ti segna per tutta la vita. Non siamo macchine o computer senza sentimenti", spiega l'avvocato Feliu.

Entrambi gli avvocati concordano sul fatto che la politica di Meta di costringere i dipendenti a guardare l'intero video per spiegare tutte le ragioni della censura aggrava il trauma.

Gli avvocati spiegano che se il dipendente è in grado di capire già dopo 10 secondi il motivo per cui il video deve essere censurato, allora non c'è bisogno di guardare l'intero video. E si lamentano anche del fatto che spesso il moderatore deve guardare più volte lo stesso video, perché più di un utente lo ha segnalato.

A questo proposito, Facebook sostiene che esistono "soluzioni tecniche per limitare il più possibile l'esposizione al materiale grafico".

"Le persone che revisionano i contenuti su Facebook e Instagram possono regolare lo strumento di revisione dei contenuti in modo che i contenuti grafici appaiano completamente sfocati, in bianco e nero o senza audio", spiega l'azienda americana.

PUBBLICITÀ

Tre anni fa, l'amministratore delegato di Facebook Mark Zuckerberg aveva definito le critiche alle condizioni di lavoro dell'azienda "un po' troppo drammatiche".
I commenti, fatti durante una riunione del personale, erano trapelati alla stampa.

"Non è che la maggior parte delle persone veda cose orribili tutto il giorno. Ma ci sono cose davvero brutte che le persone devono affrontare, e assicurarsi che abbiano la giusta consulenza, lo spazio e la possibilità di prendersi delle pause e di ottenere il supporto per la salute mentale di cui hanno bisogno: per noi è una cosa davvero importante", disse Zuckerberg ai dipendenti.

Ma questa non è affatto l'esperienza degli ex lavoratori.

"La politica dell'azienda è quella di negare", afferma l'avvocato Feliu.

"Se volessero risolvere questi problemi, basterebbe prendere in mano la situazione, ma al momento l'unica soluzione per gli ex dipendente è la via penale".

PUBBLICITÀ
Condividi questo articoloCommenti

Notizie correlate

Tutti contro Meta: "Crea dipendenza" a bambini e adolescenti. 33 Stati americani fanno causa

Nokia licenzia 11.000 dipendenti, in un contesto di rallentamento globale delle telecomunicazioni

Nuovo studio su deficit di attenzione e iperattività (ADHD): possibile maggiore rischio di demenza