Newsletter Newsletters Events Eventi Podcasts Video Africanews
Loader
Seguiteci
Pubblicità

Trend social delle caricature AI di ChatGPT, un regalo per i truffatori, avvertono gli esperti

Una caricatura generata dall’IA a partire da un’immagine stock di Canva.
Caricatura generata dall’IA a partire da un’immagine stock di Canva. Diritti d'autore  Canva/ChatGPT
Diritti d'autore Canva/ChatGPT
Di Euronews
Pubblicato il
Condividi Commenti
Condividi Close Button

Le immagini caricate sui chatbot di intelligenza artificiale possono essere conservate per un periodo imprecisato e, se cadono nelle mani sbagliate, favorire furti d’identità, truffe e falsi profili sui social.

La nuova moda delle caricature create con l’intelligenza artificiale, che mostrano in un’immagine colorata tutto ciò che un chatbot sa di una persona, può comportare seri rischi per la sicurezza informatica, avvertono gli esperti.

PUBBLICITÀ
PUBBLICITÀ

Gli utenti caricano una loro foto, spesso con il logo dell’azienda o dettagli sul proprio ruolo, e chiedono a ChatGPT di OpenAI di creare una caricatura di loro e del loro lavoro usando ciò che il chatbot conosce su di loro.

Gli esperti di sicurezza informatica hanno spiegato a Euronews Next che le sfide sui social network, come le caricature generate dall’IA, possono offrire ai truffatori una vera miniera d’oro di informazioni. Una sola immagine, abbinata a dati personali, può rivelare molto più di quanto gli utenti immaginino.

«State facendo il lavoro dei truffatori al posto loro: fornite una rappresentazione visiva di chi siete», spiega Bob Long, vicepresidente dell’azienda di verifica dell’età Daon.

Secondo Long, la formulazione stessa di queste sfide dovrebbe far scattare campanelli d’allarme, perché «sembra qualcosa lanciato apposta da un truffatore per rendere il lavoro più semplice».

Che fine fanno le immagini caricate ai chatbot di intelligenza artificiale?

Quando un utente carica un’immagine su un chatbot basato su IA, il sistema la elabora per ricavarne dati, come l’emozione della persona, l’ambiente circostante o informazioni che possono rivelarne la posizione, spiega il consulente di sicurezza informatica Jake Moore. Queste informazioni possono poi essere conservate per un periodo di tempo imprecisato.

Long aggiunge che le immagini raccolte dagli utenti possono essere utilizzate e conservate per addestrare i generatori di immagini IA, entrando a far parte dei loro dataset.

Una violazione dei dati in un’azienda come OpenAI potrebbe far finire nelle mani di criminali informatici dati sensibili, come le immagini caricate e le informazioni personali raccolte dal chatbot, che potrebbero essere sfruttati.

Se finiscono nelle mani sbagliate, anche solo un’immagine in alta risoluzione può essere usata per creare falsi profili sui social network o realistici deepfake generati dall’IA, utili per mettere in atto truffe, avverte Charlotte Wilson, responsabile enterprise di Check Point, società israeliana di sicurezza informatica.

«I selfie permettono ai criminali di passare da truffe generiche a furti d’identità personalizzati e molto convincenti», afferma.

Le impostazioni sulla privacy di OpenAI precisano che le immagini caricate possono essere utilizzate per migliorare il modello, anche attraverso l’addestramento. Interpellato sulle impostazioni di privacy del modello, ChatGPT ha chiarito che questo non significa che ogni foto finisca in un database pubblico.

Il chatbot ha spiegato invece di utilizzare i modelli ricavati dai contenuti degli utenti per perfezionare il modo in cui il sistema genera le immagini.

Come partecipare alle mode dell’IA senza mettere a rischio la privacy

Per chi vuole comunque seguire la tendenza, gli esperti consigliano di limitare al massimo ciò che si condivide.

Secondo Wilson, gli utenti dovrebbero evitare di caricare immagini che rivelino qualsiasi informazione identificativa.

«Ritagliate strettamente il volto, mantenete uno sfondo neutro e non includete distintivi, uniformi, tesserini, badge aziendali, indizi sulla posizione o qualsiasi elemento che vi colleghi a un datore di lavoro o alle vostre abitudini quotidiane», suggerisce.

Wilson mette inoltre in guardia dal condividere troppi dati personali nei prompt, come il proprio titolo di lavoro, la città o il nome del datore di lavoro.

Nel frattempo, Moore raccomanda di rivedere le impostazioni sulla privacy prima di partecipare, inclusa l’opzione per escludere i propri dati dall’addestramento dell’IA.

OpenAI mette a disposizione un portale per la privacy che consente agli utenti di disattivare l’uso dei propri dati per l’addestramento dell’IA selezionando l’opzione ‘non utilizzare i miei contenuti per l’addestramento’.

Gli utenti possono inoltre escludere dall’addestramento le conversazioni testuali con ChatGPT disattivando l’impostazione ‘migliora il modello per tutti’.

In base alla normativa UE, gli utenti possono chiedere la cancellazione dei dati personali raccolti dall’azienda. OpenAI precisa però che una parte delle informazioni può essere comunque conservata anche dopo la cancellazione, per contrastare frodi, abusi e problemi di sicurezza.

Vai alle scorciatoie di accessibilità
Condividi Commenti

Notizie correlate

IA o umani? Ricercatori dubitano di chi pubblica sul social di bot Moltbook

E se il tuo sistema di sicurezza domestica fosse la tua minaccia peggiore?

Trend social delle caricature AI di ChatGPT, un regalo per i truffatori, avvertono gli esperti