Fare ricerche autonome, analizzare bene l’immagine e affidarsi ai verificatori di fatti sono buoni modi per capire se un’immagine può essere creata dall’IA.
In occasione della decima Giornata internazionale del fact-checking, è il momento giusto per rivedere come riconoscere la disinformazione generata dall’IA.
Questo tipo di contenuti compare ovunque, dalla guerra tra Stati Uniti e Iran alla vigilia delle elezioni in Ungheria, e persino nei feed personali.
Uno studio recente, pubblicato sulla rivista PNAS Nexus, ha chiesto a 27 mila persone in 27 Paesi dell’UE di valutare otto titoli di notizie, alcuni scritti da esseri umani e altri dall’IA, in base a quanto sembravano reali.
Quasi la metà dei titoli generati dall’IA è stata giudicata “per lo più” o “del tutto reale”, contro il 44 per cento di quelli scritti da giornalisti. Gli intervistati erano anche più propensi a condividere e considerare attendibile una notizia generata dall’IA rispetto a una scritta da esseri umani, se sapevano che riguardava un fatto realmente accaduto.
Hanno però dichiarato di essere meno inclini a condividere una notizia, che fosse scritta da un umano o dall’IA, se sapevano che era falsa.
Secondo i ricercatori, i risultati mostrano che le persone non riescono a distinguere tra contenuti prodotti da esseri umani e contenuti generati dall’intelligenza artificiale.
Ecco alcuni suggerimenti per riuscirci.
Cercare gli indizi visivi
I primi video generati con l’IA apparsi online avevano segnali rivelatori evidenti: persone con troppe dita, voci fuori sincrono rispetto all’audio o oggetti deformati.
Oggi indizi così grossolani sono meno frequenti, perché la tecnologia è avanzata, ma vale comunque la pena cercarli.
Si possono cercare incoerenze, per esempio un’auto presente in una scena del video e scomparsa in quella successiva.
Secondo il Global Investigative Journalism Network (GIJN), alcune immagini generate dall’IA possono apparire eccessivamente rifinite o avere una lucentezza innaturale.
Il GIJN consiglia, quando si osserva un’immagine che potrebbe essere generata dall’IA, di chiedersi se la persona ritratta non appaia troppo perfetta, soprattutto rispetto al contesto (per esempio, sembra pronta per finire su una rivista pur trovandosi in una zona di guerra?). Suggerisce anche di guardare alla qualità della pelle, per vedere se manca la normale texture.
Fare le proprie verifiche
Se un’immagine o un video sembrano sospetti, esistono diversi modi per verificarne l’autenticità.
Un metodo è la ricerca inversa di immagini: si fa uno screenshot del video, lo si carica nella barra di ricerca di Google e si clicca sull’icona della fotocamera con la dicitura “cerca per immagine”.
Una volta caricata l’immagine, Google mostrerà i riscontri visivi della stessa foto e si potrà individuare rapidamente la prima volta in cui è stata pubblicata.
Lo stesso si può fare con altri motori di ricerca o con strumenti specializzati come TinEye.
Si possono inoltre usare soluzioni tecniche per rintracciare i watermark o i metadati di un contenuto e capire così se l’informazione è affidabile o meno, secondo (fonte in inglese) la Commissione europea.
Per esempio, le immagini generate con Gemini, l’IA di Google, includono un watermark digitale invisibile chiamato SynthID, che l’applicazione è in grado di rilevare.
Affidarsi agli esperti
Si può anche verificare se le organizzazioni dei media, dichiarazioni di figure pubbliche o post sui social di esperti di disinformazione abbiano già smentito l’immagine o il video che si sta vedendo circolare.
In Europa esistono organizzazioni di fact-checking come l’European Fact-Checking Standards Network (EFCSN), l’European Digital Media Observatory (EDMO) ed EUvsDisinfo, gestita dal Servizio europeo per l’azione esterna (SEAE), che pubblicano analisi, ricerche e smentite su varie forme di disinformazione generata dall’IA.
Queste fonti possono disporre di tecniche più avanzate per individuare contenuti generati dall’IA o avere accesso a informazioni sull’immagine non disponibili al grande pubblico.
Gli utenti possono inoltre controllare se l’informazione che vedono rientra nel Database of Known Fakes, un archivio (fonte in inglese) di verifiche svolte da giornalisti, ricercatori e fact-checker professionisti.
Sfruttare la tecnologia
Esistono alcuni strumenti per rilevare i contenuti generati dall’IA, ma la loro reale precisione nel segnalarli è oggetto di dibattito.
Tra questi strumenti ci sono: Winston AI, che individua immagini create dall’intelligenza artificiale; TruthScan, che offre una prima valutazione sul fatto che un’immagine sia o meno generata dall’IA; e Originality AI, che verifica se un testo è stato prodotto dall’IA.
Altri strumenti di creazione basati sull’IA hanno aggiunto watermark visibili ai contenuti che producono.
Spesso però questi segni sono facili da rimuovereo da eliminare ritagliando l’immagine. La loro assenza non è quindi una prova che la foto sia autentica.
Rallentare
Fermarsi, fare un respiro e non condividere subito qualcosa che non è reale.
Chi diffonde contenuti dannosi conta spesso sul fatto che le persone lascino che emozioni e convinzioni pregresse guidino le loro reazioni.
Dare un’occhiata ai commenti può fornire indizi sul fatto che l’immagine visualizzata sia reale o meno, perché altri utenti potrebbero aver notato elementi che fanno pensare a una generazione artificiale.
Non è sempre possibile stabilire con certezza se un’immagine sia stata creata dall’IA, quindi è bene restare consapevoli della possibilità che non sia autentica.