La Russia sta usando video generati dall'intelligenza artificiale di soldati ucraini per dipingere L'Ucraina come debole e minare la fiducia nel suo comando centrale
Un video pubblicato sui social media mostra un soldato ucraino sconvolto che fa una panoramica con la telecamera, rivelando trincee piene di corpi di soldati morti e feriti. Questi video mettono in luce la realtà agghiacciante vissuta da molti ucraini che combattono contro le truppe russe in prima linea.
Ma in realtà questo filmato ampiamente condiviso è stato generato dall’intelligenza artificiale, come verificato dalla società di analisi forense dell’Ai Sensity Ai.
Più di mille video falsi online per minare la fiducia degli ucraini nelle loro forze armate
I ricercatori di Sensity avvertono che i deepfake vengono utilizzati per manipolare l'opinione pubblica e minare la fiducia nelle forze armate, sfruttando video autentici di soldati ucraini che documentano la loro vita quotidiana sul campo.
I filmati sono realizzati in modo da sembrare autentiche riprese dal fronte. Ad esempio, in un altro video sui social media, si vede un soldato che critica la leadership militare dell'esercito ucraino. “Non voglio servire con loro”, dice il soldato nel video. “E non ho nemmeno bisogno di loro.”
Sensity ha individuato più di mille video simili diffusi sui social media, identificando un set di dati principale di 60 video manipolati dall'intelligenza artificiale.
Questi video includono volti generati dall'Ai, oltre a voci innaturali. In alcuni casi, le riprese autentiche sono combinate con elementi generati dall'Ai, rendendo più difficile individuare le incongruenze.
Secondo Sensity, questi video seguono uno schema ricorrente volto a garantirne un'ampia diffusione sui social media, inondando i feed degli utenti. Nel campione analizzato da Sensity, i video vengono solitamente caricati su piattaforme come TikTok o Telegram da account appena creati o anonimi.
Una volta che iniziano ad attirare interazioni (visualizzazioni, “mi piace” e commenti), vengono poi ripubblicati su piattaforme come X, Facebook, Instagram e YouTube. Su queste piattaforme, gli algoritmi premiano i contenuti ad alto impatto emotivo diffondendoli ulteriormente nelle timeline degli utenti.
Una volta che la narrazione inizia a circolare sui social media, Sensity riferisce che blogger militari filorussi o siti mediatici filo-Cremlino, come la rete Pravda, riprendono il contenuto.
La nuova strategia per i video deepfake
Sebbene i video siano diversi, veicolano narrazioni simili con l’intento di influenzare la percezione della guerra. Ciò include la rappresentazione di soldati disperati per la situazione al fronte, affermazioni secondo cui la leadership militare ucraina sarebbe inadeguata o assente, nonché accuse relative a una cattiva gestione dell’esercito ucraino.
Molti di questi video mirano anche a normalizzare la resa, mostrando soldati ucraini che sostengono che abbandonare le loro postazioni sia l’unica via d’uscita dalla guerra. L’obiettivo di questi video è minare la fiducia nelle istituzioni e nel comando militare ucraino, oltre che indebolire il morale, secondo il fondatore di Sensity, Francesco Cavalli.
“Il vero pericolo di questi video su piattaforme come TikTok e Meta non è semplicemente che alcuni utenti possano crederci, ma che possano plasmare la percezione su larga scala, seminare confusione in eventi in rapida evoluzione e erodere gradualmente la fiducia in ciò che le persone vedono”, ha affermato Cavalli .
“La vecchia paura era un video falso di un presidente. La nuova realtà è costituita da migliaia di video sintetici rivolti a un pubblico più ristretto, in cui non è necessario che un singolo clip diventi virale per essere efficace”, ha aggiunto il fondatore di Sensity.