Newsletter Newsletters Events Eventi Podcasts Video Africanews
Loader
Seguiteci
Pubblicità

Ban, spazzatura IA e chatbot che elogiano Hitler: i maggiori scandali sui social media quest’anno

I social media restano una forza dominante nelle nostre vite, nonostante importanti cambiamenti normativi nel 2025.
I social media restano una forza dominante nelle nostre vite, nonostante alcuni importanti cambiamenti normativi nel 2025. Diritti d'autore  Canva
Diritti d'autore Canva
Di Amber Louise Bryce
Pubblicato il
Condividi Commenti
Condividi Close Button

Social media 2025: mix di trend, gergo e contenuti "brain rot". Le piattaforme alle prese con leggi sui limiti d’età, IA e crescente sfiducia degli utenti.

Con la fine di un altro anno, molti di noi si preparano a un'ondata di Reels riflessivi su Instagram, traguardi filtrati e buoni propositi per fare meno doomscrolling.

I social media restano una forza dominante nelle nostre vite: un modo per misurare i successi, connetterci con gli altri e seguire notizie e tendenze. Hanno persino rimodellato il linguaggio, con molte delle parole del 2025 dei dizionari coniate sui social: rage bait, parasocial e AI slop, per citarne alcune.

Dall’ascesa dell’intelligenza artificiale (IA) si è registrato un forte cambio nel modo in cui usiamo e percepiamo i social. La disinformazione crescente ha generato sfiducia e disillusione, riflessa nell’uso delle piattaforme.

Facebook resta il più popolare, secondo la società di marketing per motori di ricerca Semrush. Ma app basate sulla comunità come Reddit e Discord continuano a crescere, perché gli utenti cercano spazi online più significativi, intimi e autentici.

Intanto i regolatori cercano un equilibrio tra internet aperto e sicurezza online, rendendo il 2025 un possibile punto di svolta per il modo in cui le società dei social continueranno a operare.

Dalle leggi sulla verifica dell’età alle grandi polemiche su Grok, il chatbot IA di Elon Musk: ecco i temi chiave dei social nel corso dell’anno.

Divieti sui social e tutela dei minori

Il 10 dicembre l’Australia ha introdotto una prima mondiale: il divieto dei social per i minori di 16 anni. I ragazzi non possono più avere account su piattaforme come Instagram, Snapchat, TikTok, YouTube, X e Facebook, che rischiano pesanti multe in caso di violazione.

Una misura estrema, che riflette l’allarme crescente per l’impatto dei social sulla salute mentale dei giovani. L’Organizzazione mondiale della sanità (OMS) segnala che 1 adolescente su 10 ha sperimentato conseguenze negative legate all’uso.

La Danimarca ha poi reso noti i piani per seguire l’esempio, proponendo il blocco dei social per gli under 15 salvo compilazione di una valutazione specifica da parte dei genitori. Altri Paesi, tra cui Spagna, Grecia e Francia, chiedono misure analoghe di tutela.

Nel frattempo, a luglio nel Regno Unito sono entrate in vigore rigide norme di verifica dell’età previste dall’Online Safety Act, che impediscono ai minori di vedere contenuti per adulti o materiale che possa incoraggiare comportamenti pericolosi.

L’efficacia di queste leggi resta da verificare e alcuni esperti mantengono scetticismo, ma intanto emergono i modi creativi con cui gli adolescenti provano ad aggirare le regole. Molti si spostano su app di messaggistica come WhatsApp, oppure comprano maschere a rete con sembianze adulte per ingannare il riconoscimento facciale.

AI slop, deepfake e diffusione della disinformazione

Il 2025 è stato l’anno dell’AI slop. Termine che indica immagini e video falsi generati da strumenti come Sora di OpenAI, ha invaso i nostri feed con assurdità a basso sforzo: cuccioli che si trasformano in girelle alla cannella, gatti arrestati o i popolarissimi meme di ‘Italian brain rot’.

Apparentemente innocuo, tutto ciò rende più difficile trovare contenuti reali creati da persone. In alcuni casi ha favorito truffe e disinformazione, anche da parte di politici. Il presidente USA Donald Trump resta tra i peggiori responsabili: in un’occasione ha condiviso immagini generate dall’IA in cui la cantante Taylor Swift sembrava sostenerlo.

L’IA è stata usata anche per moltiplicare i deepfake, video che imitano volto, corpo o voce di una persona per diffondere falsità. Un esempio: un filmato fabbricato e pubblicato su TikTok mostrava una donna, in un programma TV, confessare una frode ai sussidi; emittenti come Fox News lo hanno rilanciato per errore.

Per contrastare il fenomeno, piattaforme come Meta e TikTok hanno iniziato a etichettare i contenuti generati dall’IA. Ma la mole di produzione rende difficile un’applicazione completa, e un rapporto di giugno dell’organismo di supervisione interno di Meta ha giudicato tale etichettatura "incoerente".

Il chatbot di Elon Musk e l’odio online

Elon Musk, che ha acquistato la piattaforma social X (ex Twitter) nel 2022.
Elon Musk, che ha acquistato la piattaforma social X (ex Twitter) nel 2022. AP/ Pool Getty Images

Molte grandi piattaforme social hanno integrato assistenti IA nei servizi, offrendo supporto automatico per la creazione di contenuti, le ricerche e l’assistenza clienti. È però Grok, il chatbot di Elon Musk, ad aver suscitato le polemiche maggiori quest’anno.

Sviluppato dalla società xAI del miliardario, Grok è finito sui giornali a luglio per aver lodato Adolf Hitler e accusato un account bot, con un cognome ebraico, di celebrare la morte di bambini bianchi durante le inondazioni nel Texas centrale.

All’epoca Musk rispose che lo strumento era “troppo incline a compiacere e a essere manipolato”, un problema “in fase di risoluzione”. Nonostante ciò, Grok ha continuato a fornire risposte preoccupanti, tra cui teorie del complotto antisemite e consigli su come fare stalking.

Regole più rigide e responsabilità degli algoritmi

La regolamentazione degli spazi online si è inasprita quest’anno: nel Regno Unito è entrato in vigore l’Online Safety Act, che chiede maggiore trasparenza e responsabilità alle società dei social.

Il Digital Services Act (DSA) dell’UE ha inoltre inflitto la sua prima sanzione, comminando a X di Elon Musk 120 milioni di euro. Le politiche pubblicitarie della piattaforma e le spunte blu (un tempo segno di account verificato, ora in vendita per chiunque) sono state giudicate non conformi al diritto UE per mancanza di chiarezza.

A maggio TikTok è stata multata per 530 milioni di euro dalla Commissione irlandese per la protezione dei dati (DPC) per non aver protetto i dati personali degli utenti UE durante un trasferimento in Cina.

La quantità di dati (e di potere) nelle mani delle piattaforme, unita alle preoccupazioni sul loro impatto potenzialmente dannoso, lascia prevedere un’ulteriore stretta normativa nel 2026.

Vai alle scorciatoie di accessibilità
Condividi Commenti

Notizie correlate

ChatGPT lancia il riepilogo 2025 in stile Spotify Wrapped per milioni di utenti

Quali Paesi europei valutano il divieto dei social media ai minori?

Guida al messaggio di Natale Whatsapp perfetto con 67 esempi