Dall’inizio della guerra circolano online false affermazioni, video generati dall’IA e vecchie immagini di combattimenti, diffusi sia dalla propaganda statale sia da singoli in cerca di clic e profitti.
La guerra con l'Iran ha messo in luce come la produzione di video con l'intelligenza artificiale (IA) possa incidere sulla percezione dell'opinione pubblica nei periodi di massimo consumo di notizie, mentre i Paesi coinvolti nel conflitto cercano a loro volta di plasmare la propria narrazione.
Ma questo fenomeno può avere un impatto emotivo fortissimo nei Paesi che fanno parte della guerra, spingendo i governi ad adottare severe misure di contenimento.
L'accesso facile e poco costoso alle tecnologie video basate sull'IA ha inondato i social media di video deepfake e foto generate dall'intelligenza artificiale su combattimenti, danni alle aree civili o dichiarazioni, fin dallo scoppio della guerra con l'Iran. Una valanga di contenuti che alimenta la disinformazione e può influire in modo significativo sia sulla percezione della guerra sia sulla realtà sul terreno.
«Immagini e video drammatici che affermano di mostrare in tempo reale scene di battaglia e lanci di missili stanno invadendo i feed dei social media, diffondendosi rapidamente e ingannando milioni di persone», ha dichiarato a Euronews Next Marc Owen Jones, professore associato di analisi dei media alla Northwestern University in Qatar, a proposito di come la guerra si stia spostando online.
Il campo di battaglia digitale
Jones, esperto di come social media, disinformazione e politica online influenzino l'opinione pubblica, afferma che i social sono diventati un campo di battaglia fra narrazioni concorrenti. Tutte le parti in causa e i loro sostenitori usano ormai queste piattaforme per conquistare «cuori e menti».
Per quanto riguarda il fronte statunitense, Jones spiega che circolano «video montati alternando clip hollywoodiane, una sorta di trasformazione in meme della comunicazione pensata per richiamare un'estetica dell'estrema destra che rifiuta l'empatia a favore dell'umiliazione».
Dall'altra parte, osserva che «l'Iran ha alzato il livello del gioco, spesso prendendo in giro gli Stati Uniti con i propri meme. Ma molte immagini generate dall'IA sembrano esagerare i successi militari dell'Iran, probabilmente per aumentare la pressione sugli Stati del Golfo perché spingano per una de-escalation».
Deepfake generati dall'IA
I progressi dell'intelligenza artificiale rendono la disinformazione più facile da produrre e più convincente. Gli strumenti basati sull'IA possono essere usati da chiunque per creare in pochi secondi video, immagini e audio di alta qualità.
Tra gli esempi, video che affermavano di mostrare la portaerei statunitense USS Abraham Lincoln in fiamme in mare. Le immagini erano così convincenti che il presidente Donald Trump ha detto di aver chiamato i suoi generali per verificare se fossero reali.
Trump è poi intervenuto sulla piattaforma Truth Social (fonte in inglese), scrivendo: «Non solo non stava bruciando, non era neppure stata colpita, l'Iran sa bene che non deve farlo!».
Altri esempi sono video, poi smentiti, che sostenevano di mostrare soldati statunitensi in lacrime e edifici distrutti in città del Golfo.
«L'uso dell'IA è dilagante ed è sempre più difficile da individuare», afferma Jones.
Velocità e verifica
La velocità con cui i contenuti si diffondono online rende più difficile per le persone comuni verificare che cosa è reale.
«In un conflitto in rapida evoluzione, le informazioni verificate arrivano spesso in ritardo, creando un vuoto che la disinformazione riempie immediatamente», spiega Jones. «Quando le persone sono in ansia, hanno fame di informazioni, ma spesso quelle informazioni sono false», aggiunge.
I contenuti non verificati possono raggiungere milioni di persone nel giro di pochi minuti. Il pubblico si trova così a dover svolgere un difficile lavoro di verifica su materiali spesso molto realistici o condivisi su più piattaforme.
Voci virali
Accanto ai filmati di battaglia generati dall'IA, la scorsa settimana si sono diffuse ampiamente speculazioni secondo cui il primo ministro israeliano Benjamin Netanyahu fosse morto.
Alcuni utenti hanno segnalato anomalie visive in un video di bassa qualità diffuso dall'ufficio di Netanyahu il 13 marzo. Secondo loro, Netanyahu sembrava avere sei dita in una mano, un presunto segno inconfondibile dell'uso dell'IA.
«Le voci sulla morte di Netanyahu sono state accompagnate da accuse secondo cui il suo discorso era in realtà un video creato con l'IA», osserva Jones.
In seguito, Netanyahu ha pubblicato diversi video in stile «prova di vita» per smentire le voci. Tuttavia, online continuano a circolare speculazioni sulla sua morte.
Bot e campagne coordinate
Alcuni dei contenuti che circolano online potrebbero far parte di campagne coordinate, pensate per deviare l'attenzione, convincere o influenzare l'opinione pubblica.
«Ci sono account anonimi dall'aria sospetta, con una storia di ripetuti cambi di nome e nessuna identità riconoscibile, che diffondono notizie false e video creati con l'IA», spiega Jones.
Questi account possono apparire credibili, ma spesso sono collegati ad attori sostenuti da Stati o a persone che cercano di trarre profitto da contenuti sensazionalistici, aggiunge.
In alcuni casi, account automatizzati, o bot, amplificano determinate narrazioni condividendo e commentando i post, facendo sembrare che siano molto più popolari di quanto non siano in realtà.
Scherzi e satira
Non tutti i video realizzati con l'IA sono pensati per ingannare. Alcuni vengono creati deliberatamente come parodia o satira.
Queste clip spesso prendono di mira o imitano leader mondiali, come Trump e Netanyahu, ma possono comunque essere scambiate per video autentici.
Secondo Jones, «i deepfake generati dall'IA hanno superato una soglia critica: le precedenti imperfezioni evidenti sono state eliminate e questa tecnologia è ormai accessibile a chiunque abbia uno smartphone».
Esempi che circolano online includono un video che raffigura Trump come nuova Guida Suprema dell'Iran, oltre a clip che mostrano Netanyahu come un robot difettoso o con più dita.
Altri video mostrano membri della NATO che si rifiutano di aiutare il presidente Trump a sbloccare lo stretto di Hormuz e il presidente ucraino Volodymyr Zelenskyy che arriva nella regione del Golfo con tecnologia antidroni, per poi essere colpito da un missile.
In conflitti che cambiano rapidamente, video di questo tipo possono acquisire una vita propria e diffondersi in fretta oltre il loro contesto originario.
Erosione della fiducia
L'aumento di informazioni fuorvianti online rende sempre più difficile per le persone distinguere tra fatti e finzione.
«Le informazioni false possono diffondersi sui social media fino a dieci volte più velocemente delle notizie accurate, e le correzioni raramente raggiungono o convincono tante persone quanto la falsa affermazione iniziale», afferma Jones.
«L'indignazione spinge a condividere prima che avvengano le verifiche, ed è proprio su questo che contano gli attori malintenzionati», aggiunge.
Jones afferma che i filmati spettacolari dovrebbero essere trattati con lo stesso scetticismo riservato alle notizie non verificate.
«Il fatto che qualcosa appaia reale non è più una prova sufficiente che lo sia davvero», sottolinea.
Man mano che il conflitto prosegue, prosegue anche la battaglia sui social media, lasciando i cittadini comuni alle prese con un complesso intreccio di disinformazione, satira e contenuti manipolati.