Secondo la Internet Watch Foundation, i contenuti generati dall'IA sono più espliciti, estremi e complessi rispetto alla pedopornografia vista finora.
Le immagini generate dall’intelligenza artificiale che raffigurano l’abuso sessuale di minori sono aumentate del 14% nel 2025, mentre per gli investigatori è sempre più difficile distinguere i contenuti sintetici dalle fotografie reali, secondo un nuovo rapporto.
La Internet Watch Foundation (IWF), organizzazione non profit britannica dedicata alla rimozione da internet del materiale di abuso sessuale su minori (CSAM), nell’ultimo anno ha identificato oltre 8.000 immagini e video generati con l’IA sulla base delle segnalazioni degli utenti.
I ricercatori dell’IWF classificano un contenuto come generato dall’IA se nell’immagine sono presenti errori evidenti, se la vittima afferma che è stato creato con l’IA oppure se il creatore originale fornisce informazioni su come è stata utilizzata l’intelligenza artificiale.
Anche se il contenuto sessuale generato con l’IA rappresenta ancora una quota relativamente piccola di ciò che l’organizzazione rileva online, l’IWF avverte che sta aumentando a un ritmo allarmante.
Tra i contenuti generati con l’IA, più di 3.400 casi riguardavano video “full-motion” creati artificialmente, filmati iperrealistici che permettono l’interazione di più persone all’interno del video.
Oltre il 65% di questi video rappresentava le forme più gravi di abuso, tra cui stupro, torture sessuali e zoofilia, che secondo la legge britannica rientrano nella categoria più alta di contenuti sessuali su minori.
Per i contenuti sessuali non generati dall’IA, invece, solo il 43% rientrava nelle categorie più estreme. Secondo l’IWF questo suggerisce che i responsabili utilizzano strumenti di IA per produrre contenuti più espliciti, estremi e complessi rispetto al passato.
«Ci troviamo ora di fronte a un panorama tecnologico in grado di generare violazioni infinite con una facilità senza precedenti», ha dichiarato nel rapporto Kerry Smith, il CEO dell’IWF.
Come gli autori di abusi sfruttano l’IA?
Lo studio fa luce anche su come gli autori di reati stiano sviluppando e condividendo attivamente strumenti.
I ricercatori hanno osservato discussioni sul dark web in cui i responsabili si scambiano strumenti e collaborano per sviluppare modelli di IA e database personalizzati che generano materiale di abuso.
In un caso, i ricercatori hanno individuato una pubblicità che offriva “corsi personalizzati” per insegnare agli utenti a creare immagini generate dall’IA raffiguranti adolescenti.
«Applicazioni singole possono ora generare immagini abusive con uno sforzo minimo, eliminando la necessità di competenze tecniche e abbassando in modo significativo le barriere all’ingresso», si legge nel rapporto. In molti casi i modelli richiedono una sola immagine di riferimento per produrre contenuti sessuali su minori.
Se da un lato l’IA rende più facile per chiunque creare contenuti CSAM semplici, il rapporto evidenzia che esistono alcuni creatori molto noti, con competenze più avanzate, che producono materiale più lungo e sofisticato. In un caso, ad esempio, un creatore ha ricevuto oltre 3.000 messaggi di ringraziamento per aver realizzato un video di 30 minuti di abuso sessuale generato dall’IA.
L’IWF ha sottolineato che il materiale finora raccolto offre solo «una visione parziale» della quantità complessiva di contenuti sessuali su minori che circola online, e che il fenomeno è probabilmente «significativamente più ampio» di quanto emerso.
Ciò perché, spiega il rapporto, gli analisti dell’IWF sono limitati nei luoghi in cui possono effettuare ricerche: non possono oltrepassare paywall né accedere a spazi crittografati.
Divieto a livello UE potrebbe essere uno «standard minimo»
Smith ha esortato l’Unione europea a valutare l’introduzione di un divieto in tutto il blocco sia per i contenuti di abuso sessuale su minori generati con l’IA sia per gli strumenti utilizzati per crearli.
Un simile divieto renderebbe illegale anche la creazione, da parte degli utenti, di contenuti personalizzati a uso esclusivamente privato, anche se non vengono condivisi, si legge nel rapporto.
«I progressi tecnologici non dovrebbero mai avvenire a scapito della sicurezza e del benessere dei bambini», ha aggiunto Smith, sottolineando che un divieto di questo tipo dovrebbe rappresentare uno «standard minimo senza eccezioni».
Il rapporto arriva poco dopo che i legislatori europei hanno approvato (fonte in inglese) una proroga temporanea della direttiva ePrivacy, il testo legislativo che consente alle piattaforme internet di individuare contenuti CSAM.
La proroga, in vigore fino al 3 aprile, è pensata per dare ai legislatori il tempo di concordare un quadro giuridico di lungo periodo per combattere online l’abuso sessuale su minori.
In un comunicato stampa, i legislatori hanno precisato che eventuali misure future dovranno restare «proporzionate» e applicarsi solo ai contenuti già segnalati come potenziale materiale sessuale su minori, senza consentire la sorveglianza generalizzata di tutte le conversazioni crittografate.
L’IWF ha inoltre chiesto che l’AI Act dell’UE venga modificato per classificare come «ad alto rischio» i sistemi di IA che possono essere utilizzati per generare contenuti sessuali su minori. In base al regolamento, la qualifica di «alto rischio» obbliga i sistemi a essere sottoposti a test più rigorosi prima di essere resi disponibili nell’UE.
Questa classificazione, aggiunge il rapporto, porterebbe a una riduzione dei contenuti CSAM, perché gli strumenti verrebbero testati in modo più approfondito.
L’uso dell’IA per lo sfruttamento sessuale dei minori e la pornografia infantile è già illegale (fonte in inglese) in base all’AI Act dell’UE, che vieta la disponibilità nel blocco di qualsiasi sistema che faccia esplicitamente questo uso.