Il video ha rapidamente accumulato più di 12 milioni di visualizzazioni dopo essere stato condiviso su Facebook. Il presidente Macron stesso è dovuto intervenire personalmente affinchè il video venisse tolto dalla piattaforma
Il presidente francese Emmanuel Macron ha scoperto la notizia del suo presunto rovesciamento dopo aver ricevuto un messaggio di preoccupazione, insieme a un link a un video su Facebook.
"Domenica 14 dicembre uno dei miei omologhi africani si è messo in contatto con me, scrivendomi 'Caro Presidente, cosa ti sta succedendo? Sono molto preoccupato", ha dichiarato Macron ai lettori del quotidiano locale francese La Provence il 16 dicembre.
Accanto al messaggio, un video avvincente: si vede un elicottero che vortica, militarie folla che si raduna, mentre una donna che sembra proprio una conduttrice di telegiornale consegna un pezzo alla telecamera.
"Rapporti non ufficiali suggeriscono che c'è stato un colpo di Stato in Francia, guidato da un colonnello la cui identità non è stata rivelata, insieme alla possibile caduta di Emmanuel Macron. Tuttavia, le autorità non hanno rilasciato una dichiarazione chiara", afferma.
Solo che nulla di questo video è autentico: in realtà è stato creato con l'Ai.
Dopo aver scoperto il video, Macron ha chiesto a Pharos, il portale ufficiale francese per la segnalazione di contenuti illeciti online, di chiamare Meta, la società madre di Facebook, per far rimuovere il video falso.
Ma la richiesta è stata respinta, in quanto la piattaforma ha affermato che il video non violava le sue "regole d'uso".
Il presidente francese ha quindi deciso di assumersi la responsabilità della sua rimozione.
"Tendo a pensare di avere più potere di pressione di altre persone", ha dichiarato Macron. "O meglio, che sia più facile dire che qualcosa è grave se sono io a chiamare, ma non funziona". "Queste persone si prendono gioco di noi", ha aggiunto. "Non gli interessa la serenità dei dibattiti pubblici, non gli interessa la democrazia e quindi ci mettono in pericolo".
Chi c'è dietro questi video falsi
Il video originale, che ha rapidamente accumulato più di 12 milioni di visualizzazioni, è stato originariamente pubblicato da un account Facebook chiamato "Islam", che, nonostante il nome, non pubblica contenuti religiosi.
L'adolescente che gestisce l'account risiede in Burkina Faso e si guadagna da vivere con corsi su come monetizzare l'Ai. Alla fine ha tolto il video più di una settimana dopo la sua pubblicazione iniziale, a causa delle polemiche politiche e pubbliche.
Il team di fact-checking di Euronews, The Cube, ha cercato di contattarlo in più occasioni attraverso il numero indicato sul suo account Facebook, ma finora le nostre chiamate sono rimaste senza risposta.
In alcuni video, si vedono conduttori di notiziari generati dall'Intelligenza artificiale che tengono in mano un microfono con il logo di Radio France Internationale (Rfi), il ramo internazionale della radio pubblica francese.
Alcuni video recano il watermark, o firma digitale, "Sora", il che suggerisce che molti di questi contenuti sono stati probabilmente prodotti con questa tecnologia.
Sora 2, una tecnologia creata da OpenAI, la stessa società che ha fondato Chat GPT, consente agli utenti di generare video iperrealistici della durata di dieci secondi a partire da messaggi di testo.
Sebbene gli altri video non presentino il logo, è possibile rimuoverlo in fase di post-produzione. Dal suo lancio in ottobre, la tecnologia ha suscitato polemiche, portando a una proliferazione di video AI altamente sofisticati e difficili da riconoscere sui social media.