Newsletter Newsletters Events Eventi Podcasts Video Africanews
Loader
Seguiteci
Pubblicità

Allarme social: algoritmi spingono i giovani verso contenuti su suicidio e autolesionismo

Un'adolescente usa il suo smartphone.
Un'adolescente usa il suo smartphone. Diritti d'autore  Canva
Diritti d'autore Canva
Di Gabriela Galvin
Pubblicato il
Condividi questo articolo Commenti
Condividi questo articolo Close Button

Uno studio della Molly Rose Foundation rivela che TikTok e Instagram promuovono contenuti su suicidio e depressione a finti account di adolescenti. Cresce l’allarme sulla sicurezza online

PUBBLICITÀ

Le piattaforme di social media continuano a esporre gli adolescenti a contenuti pericolosi legati a suicidio, autolesionismo e depressione, secondo un nuovo rapporto pubblicato dalla Molly Rose Foundation nel Regno Unito.

Per condurre l’indagine, l’organizzazione ha creato account falsi fingendo di essere una ragazza di 15 anni che aveva già interagito con contenuti sensibili. I risultati mostrano che la maggior parte dei video suggeriti da TikTok e Instagram riguardava il suicidio o l’autolesionismo, spesso in modo esplicito.

Su TikTok, la pagina For You raccomandava regolarmente video che non solo menzionavano il suicidio, ma arrivavano a promuoverlo, includendo persino descrizioni di metodi specifici. Su Instagram, invece, il fenomeno era più evidente nei Reels, la sezione dedicata ai video brevi.

“Algoritmi dannosi continuano a bombardare gli adolescenti con livelli scioccanti di contenuti pericolosi, e sulle piattaforme più popolari per i giovani questo avviene su scala industriale”, ha dichiarato Andy Burrows, amministratore delegato della Molly Rose Foundation.

Il rapporto è stato pubblicato a ridosso dell’entrata in vigore, nel luglio 2025, delle nuove norme britanniche sulla sicurezza online, che obbligano le piattaforme digitali a rimuovere rapidamente i contenuti illegali su suicidio e autolesionismo e a proteggere attivamente i minori. Tuttavia, secondo la fondazione, poco è cambiato dal 2017, anno in cui la 14enne Molly Russell si tolse la vita dopo essere stata esposta a contenuti dannosi online. Un medico legale stabilì allora che tali contenuti avevano contribuito “più che minimamente” alla sua morte.

La fondazione chiede ora all’ente regolatore Ofcom di rafforzare le misure di protezione e al governo britannico di intervenire con norme più severe.

Dal canto suo, un portavoce di TikTok ha respinto le accuse, affermando che i risultati “non riflettono la reale esperienza degli utenti” e sottolineando che la piattaforma rimuove proattivamente il 99% dei contenuti che violano le regole. Meta, società madre di Instagram, non ha commentato. Lo scorso anno, la piattaforma aveva introdotto gli “account per adolescenti”, con funzioni di sicurezza aggiuntive e limitazioni all’accesso a contenuti sensibili.

Intanto cresce la preoccupazione per l’impatto degli algoritmi sui giovani e sull’aumento di esposizione a contenuti che possono influire negativamente sulla salute mentale.

Se hai bisogno di parlare con qualcuno, rivolgiti a Befrienders Worldwide, organizzazione internazionale con linee di ascolto attive in 32 Paesi. Puoi trovare il numero più vicino visitando befrienders.org

Vai alle scorciatoie di accessibilità
Condividi questo articolo Commenti

Notizie correlate

TikTok lancia funzione di fact-checking in crowdsourcing: come funziona

Social media: Francia, Spagna e Grecia propongono un limite di età per l'accesso alle piattaforme

Amazon rinnova Kindle ed Echo, ma la novità è Ring con AI per ritrovare animali smarriti