Newsletter Newsletters Events Eventi Podcasts Video Africanews
Loader
Seguiteci
Pubblicità

Reti sociali e minori: il piano dell'Ue per rafforzare la protezione on line dei più giovani

Informatica alla scuola dell’infanzia
L'informatica alla scuola dell'infanzia Diritti d'autore  AP Photo/Elaine Thompson
Diritti d'autore AP Photo/Elaine Thompson
Di Leticia Batista Cabanas & Elisabeth Heinz
Pubblicato il Ultimo aggiornamento
Condividi Commenti
Condividi Close Button

La Commissione Ue ha presentato il suo piano per proteggere i minori online insieme a un nuovo sistema di verifica dell’età. Gli Stati membri preparano leggi per vietare i social ai minori, mentre l'europarlamento chiede un limite rigoroso di 16 anni.

Il 93 per cento dei cittadini dell'Ue è preoccupato per la salute mentale dei bambini. Il 92 per cento indica il cyberbullismo come la principale minaccia online, secondo l**'Eurobarometro "State of the Digital Decade" 2025.**

PUBBLICITÀ
PUBBLICITÀ

Bruxelles ha adottato una linea più dura sulla sicurezza online dei minori.

La scorsa settimana la presidente della Commissione europea, Ursula von der Leyen, ha annunciato che una nuova "app di verifica dell'età è tecnicamente pronta e sarà presto a disposizione dei cittadini".

Il sistema prevede che i cittadini debbano verificare la propria età per accedere alle piattaforme online, senza condividere dati personali.

Gli Stati membri dell'UE stanno già adottando misure incisive. La Francia ha introdotto un divieto per gli under 15. Spagna, Austria, Grecia, Irlanda, Danimarca e Paesi Bassi si stanno preparando a varare presto regole analoghe.

Christel Schaldemose, eurodeputata del gruppo dell'Alleanza Progressista di Socialisti e Democratici e relatrice del rapporto non legislativo sull'età minima degli europei per l'accesso ai social media, sospetta esitazioni non solo involontarie nell'azione della Commissione.

«Non so se stiano ritardando [le misure] di proposito, ma penso che siano troppo lenti. Così finiamo per avere un mercato interno frammentato, perché molti Paesi hanno già proposto un limite di età».

Bambini e piattaforme online

I social media sono diventati un ambiente pervasivo e rischioso per i bambini, soprattutto per via di meccanismi pensati per creare dipendenza, connessione continua, forte personalizzazione e strumenti di intelligenza artificiale.

Nel 2022 il 96 per cento dei quindicenni era attivo sui social media, e il 37 per cento vi trascorreva più di tre ore al giorno. Secondo uno studio del Joint Research Centre (Jrc) del 2025, le adolescenti usano i social più dei coetanei maschi: 42 per cento contro 32 per cento.

Tra i 9 e i 15 anni l'uso quotidiano raggiunge spesso le tre ore. Il 78 per cento dei ragazzi tra i 13 e i 17 anni controlla i propri dispositivi almeno una volta all'ora. Un quarto ammette di avere abitudini online problematiche, si legge nel rapporto non legislativo del Parlamento europeo del novembre 2025.

Quasi il 99 per cento degli adolescenti di 16‑17 anni nel 2025 partecipava attivamente ai social (creando profili, pubblicando messaggi, usando Facebook, X, ecc.), secondo l'Eurobarometro.

Uso di Internet: partecipazione ai social network (creazione di un profilo utente, pubblicazione di messaggi, uso di Facebook, X, ecc.)

Per Schaldemose, il gruppo di esperti della Commissione Ue sulla sicurezza online dei minori è un primo passo positivo. Le loro competenze, ha detto, orienteranno in modo efficace le azioni dell'esecutivo europeo.

Il Jrc avverte che un uso incontrollato dei social danneggia la salute mentale dei bambini, aumentando i livelli di depressione e ansia. Contenuti nocivi, come materiale violento, sessualizzato o che promuove i disturbi alimentari, possono influire sullo sviluppo del cervello e sui comportamenti sociali dei minori.

Secondo lo stesso studio, il 60 per cento delle giovani presenta sintomi depressivi contro il 35 per cento dei coetanei maschi, e il 65 per cento soffre di ansia rispetto al 41 per cento dei ragazzi.

Poiché molte piattaforme internet sono pensate soprattutto per gli adulti, i loro modelli di business basati sulla pubblicità hanno gravi ripercussioni sugli utenti più giovani, favorendo forme di dipendenza.

Il 36% degli adolescenti in Europa, Asia centrale e Canada mantiene un contatto costante tramite i social media. L'11 per cento presenta un uso problematico dei social, con percentuali più alte tra le ragazze (13 per cento) rispetto ai ragazzi (9 per cento), secondo un rapporto dell'Organizzazione mondiale della sanità (Oms) del 2024.

I divieti, una competenza nazionale

L'8 aprile 2026 il primo ministro greco Kyriakos Mitsotakis ha annunciato un divieto di accesso ai social media per i minori di 15 anni. La legge, che entrerà in vigore a gennaio 2027 ed è ancora in attesa dell'approvazione del Parlamento, impedirà ai minori di avere account sui social e imporrà alle piattaforme severi controlli sull'età, con sanzioni economiche in caso di violazioni.

La decisione è stata motivata da dati secondo cui il 75 per cento dei bambini delle scuole elementari greche era attivo sui social, mentre circa il 48 per cento degli adolescenti segnalava effetti negativi sulla salute mentale.

L'opinione pubblica ha spinto nella stessa direzione: l'80 per cento si è detto favorevole al divieto dopo una sentenza statunitense del marzo 2026 che ha ritenuto le grandi piattaforme tecnologiche responsabili dei design delle app pensati per creare dipendenza. Sulla scia del successo del divieto di smartphone nelle scuole introdotto in Grecia nel 2024, il governo ha evocato studenti "apatici" e privazione di sonno come motivi alla base della nuova stretta.

La Grecia si aggiunge ad altri Paesi dell'Ue. La Francia a gennaio 2026 ha approvato una proposta di legge per vietare i social agli under 15, parlando di "emergenza sanitaria" e della necessità di proteggere i minori dal cyberbullismo e dai danni psicologici. A febbraio 2026 la Spagna ha annunciato l'intenzione di introdurre un divieto per gli under 16 per "domare il Far West digitale", mentre Austria, Danimarca e Slovenia stanno preparando divieti rispettivamente per i minori di 14, 15 e 15 anni.

Stato dei divieti sui social media nei Paesi dell'UE

Italia e Irlanda stanno valutando divieti rispettivamente per gli under 15 e gli under 16, mentre Germania e altri Paesi discutono su limiti di età o "versioni giovani" delle piattaforme. A spingerli è l'aumento dei problemi di salute mentale e la volontà di chiamare i giganti tecnologici a rispondere dei design delle piattaforme che creano dipendenza, seguendo il precedente fissato dal divieto per gli under 16 introdotto in Australia nel 2025, il primo al mondo.

Le date di nascita auto‑dichiarate non funzionano. Finora l'applicazione dei divieti è avvenuta tramite strumenti come portafogli digitali o token di identità, ma la nuova app di verifica dell'età della Commissione europea "permetterà agli utenti di dimostrare la propria età quando accedono alle piattaforme online, proprio come i negozi chiedono un documento a chi compra [alcolici]", ha spiegato von der Leyen.

La responsabilità principale resta delle piattaforme, mentre le autorità nazionali vigilano sul rispetto delle norme e applicano le sanzioni. Le regole valide in tutta l'UE, come il Digital Services Act (DSA) e il Regolamento generale sulla protezione dei dati (Gdpr), fissano tutele di base per i minori. I divieti nazionali vanno oltre, stabilendo limiti di età rigidi e aumentando la responsabilità delle aziende tecnologiche.

Tuttavia, alcune forze politiche, come esponenti del partito spagnolo Vox e parlamentari italiani, giudicano questi divieti un'ingerenza eccessiva dello Stato. A loro avviso sarebbero più efficaci l'educazione, il controllo dei genitori e l'alfabetizzazione digitale rispetto a restrizioni assolute.

Una posizione condivisa anche da chi difende i diritti dei consumatori. Olivia Brown, responsabile politiche del gruppo internazionale Euroconsumers, considera i divieti generalizzati una scorciatoia politica che finisce per sollevare le piattaforme dalle loro responsabilità.

«Vietare i social non rende Internet più sicuro. Sposta soltanto il problema lontano dai nostri occhi. I minori hanno bisogno che la sicurezza sia integrata nel design delle piattaforme, di veri strumenti di controllo e di algoritmi che possano influenzare loro stessi, non di porte semplicemente sbarrate che si spalancano del tutto il giorno in cui compiono 18 anni».

Verso una regolamentazione a livello UE

La questione è politicamente delicata e un divieto uniforme in tutta l'UE rischierebbe di accentuare le polarizzazioni. Per ora la Commissione mette quindi a disposizione l'app di verifica dell'età come strumento per aiutare gli Stati membri a introdurre eventuali divieti nazionali.

Concepita per la prima volta nel 2025, l'app è pensata come una cornice tecnica da integrare nei portafogli digitali nazionali o in applicazioni separate per verificare l'età degli utenti. Per confermare l'età, gli utenti dovranno scaricare un'app, dare il consenso all'uso dei dati, scannerizzare un documento di identità (compreso il chip) e completare un riconoscimento facciale. La procedura potrebbe dover essere ripetuta periodicamente e le piattaforme potrebbero richiedere la verifica ogni volta che si accede a servizi con limiti di età.

La complessità del sistema solleva timori, così come le implicazioni per la privacy, la facilità con cui potrebbe essere aggirato (ad esempio tramite Vpn) e il rischio che sposti la responsabilità dalle piattaforme, a differenza di altri strumenti regolatori europei.

Preoccupazioni dei cittadini europei per i rischi online dei bambini

Tra questi c'è il Gdpr, adottato nel 2016 e attuato tra il 2018 e il 2020, che ha fissato regole severe per i dati dei minori. L'età standard per il consenso digitale è 16 anni, con la possibilità di scendere a 13; al di sotto di tale soglia è necessario il consenso dei genitori.

La revisione della direttiva sui servizi di media audiovisivi, in vigore dal 2020, ha introdotto sistemi di classificazione per età e controlli parentali sulle piattaforme di streaming, insieme a divieti rigorosi per i contenuti dannosi come il materiale di sfruttamento dei minori. Nel 2021 l'UE ha poi varato una più ampia strategia per la sicurezza online dei bambini, che combina finanziamenti, ricerca e codici di condotta volontari per affrontare rischi come l'adescamento e la disinformazione.

Più di recente la Commissione ha proposto misure concrete come profili impostati di default come privati per i minori e limiti alle funzionalità che creano dipendenza, come la riproduzione automatica e lo scorrimento infinito. Alcune parti dell'AI Act, con divieti entrati in vigore da febbraio 2025, proibiscono espressamente i sistemi che usano tecniche subliminali o sfruttano le vulnerabilità dei bambini per influenzarne il comportamento. Il futuro Digital Fairness Act, la cui proposta formale è attesa per la fine del 2026, irrigidirà le regole sul design delle piattaforme vietando i "dark pattern" e funzioni additive come lo scorrimento infinito.

Al centro di questo quadro normativo c'è il Dsa, il regolamento chiave per riformare il funzionamento delle piattaforme online. Proposto dalla Commissione nel 2020, è stato approvato da Parlamento europeo e Consiglio nel 2022 ed è entrato pienamente in vigore a febbraio 2024, dopo un'introduzione graduale.

Il Dsa impone alle piattaforme di proteggere gli utenti, dando priorità ai minori. Prevede impostazioni di default più sicure, una moderazione dei contenuti più rigorosa e limiti alla pubblicità mirata. Introduce inoltre un nuovo sistema di applicazione delle norme, con Coordinatori nazionali per i servizi digitali e un controllo a livello europeo.

Dopo l'entrata in vigore del Dsa, i cittadini europei hanno visto aumentare la trasparenza, rafforzarsi i diritti degli utenti e ridursi le pratiche dannose o predatorie. Gli utenti dispongono ora di procedure più chiare per segnalare e contestare le decisioni sui contenuti, mentre i minori beneficiano di tutele più forti della privacy e di una minore esposizione alla pubblicità mirata.

Le ricadute per le piattaforme digitali

I limiti di età sui social riducono in modo significativo la platea degli adolescenti. Le aziende perdono un gruppo chiave che alimenta l'attività online, con conseguente calo delle visualizzazioni pubblicitarie e dei ricavi da traffico.

Le piattaforme online dipendono in larga misura da bambini e adolescenti per i loro introiti pubblicitari. I limiti di età possono ridurre questi ricavi, perché diminuiscono il numero di giovani utenti e rendono più difficile indirizzare loro la pubblicità.

I costi di conformità potrebbero aumentare, poiché le aziende dovranno potenziare i sistemi di verifica dell'età e le procedure per il consenso dei genitori. Si tratta di processi costosi e complessi, che richiedono tecnologie avanzate di verifica dell'identità e protezione dei dati.

Il divieto delle caratteristiche di design che creano dipendenza e degli algoritmi pensati per massimizzare l'engagement impone un ripensamento dei prodotti, aumentando i costi di sviluppo e ritardando i lanci sul mercato europeo. Anche l'orientamento verso contenuti più sicuri può pesare sui bilanci.

Secondo Schaldemose, i grandi gruppi devono sviluppare "nuove piattaforme con un modello di business completamente diverso, che protegga i bambini".

Le aziende si troveranno anche esposte a rischi legali più severi in caso di violazioni. Il Parlamento ha proposto di rendere personalmente responsabili i proprietari delle piattaforme per infrazioni gravi e ripetute delle norme a tutela dei minori.

«Sono loro a mettere a disposizione le piattaforme. Se fissiamo un limite di età, in caso di violazioni la responsabilità ricadrà senz'altro sulle aziende», ha dichiarato Schaldemose a Euronews.

L'Europa deve accelerare

Per Schaldemose la Commissione si muove troppo lentamente. Il gruppo di esperti è stato annunciato a settembre, ma ha iniziato a lavorare solo a marzo.

Secondo alcune fonti, alcuni Stati membri si stanno già opponendo all'app. «Più tempo impiega la Commissione a presentare una proposta, più aumenta il rischio di un mercato frammentato e di falle nel sistema», ha avvertito.

«Sono diventata impaziente nei confronti della Commissione. E mi pare che anche gli Stati membri lo siano, perché stanno spingendo a loro volta», ha aggiunto Schaldemose.

Le questioni di privacy e di condivisione dei dati, secondo lei, non possono più essere un alibi. «Negli ultimi due anni abbiamo sviluppato strumenti che non compromettono i dati personali né la sicurezza», ha sottolineato.

Il Parlamento continuerà a fare pressione finché la Commissione non troverà una soluzione ragionevole. «Dobbiamo agire a livello europeo, e su questo il Parlamento è chiaro», ha concluso Schaldemose.

Vai alle scorciatoie di accessibilità
Condividi Commenti

Notizie correlate

Come può l'Ue proteggere i minori online? Chiedilo al chatbot AI di Euronews

I Paesi europei si muovono verso il divieto dei social media per i minorenni

Reti sociali e minori: il piano dell'Ue per rafforzare la protezione on line dei più giovani