ChatGPT, l'Europol mette in guardia contro i possibili a scopi illeciti

Secondo Europol le forze dell'ordine devono mantenersi aggiornate rispetto agli sviluppi dell'intelligenza artificiale
Secondo Europol le forze dell'ordine devono mantenersi aggiornate rispetto agli sviluppi dell'intelligenza artificiale Diritti d'autore Canva
Diritti d'autore Canva
Di Euronews
Condividi questo articoloCommenti
Condividi questo articoloClose Button

ChatGPT può moltiplicare la possibilità di replicare contenuti, crearne di verosimili o usurpare identità

PUBBLICITÀ

ChatGPT, l'app che ha registrato la crescita più rapida di tutti i tempi, ha fornito a tutti la possibilità di utilizzare un sistema di intelligenza artificiale (AI) efficace, addestrato su un enorme database di informazioni provenienti da Internet, semplicemente dal proprio computer. Una novità che ha già portato a cambiamenti nel modo in cui molte persone svolgono il proprio lavoro o cercano informazioni sul web. Ma l'intelligenza artificiale suscita sia entusiasmo, per le potenzialità che può offrire, sia timori per i nuovi strumenti e approcci che sta introducendo.

Una delle preoccupazioni legate alle tecnologie di AI come ChatGPT è legata ai possibili usi che possono farne criminali e malintenzionati. Un problema che l'Europol, l'ufficio europeo di polizia, ha esaminato in un rapporto pubblicato di recente, intitolato "The impact of Large Language Models on Law Enforcement".

ChatGPT, che si basa sulla tecnologia dei modelli linguistici LLM, potrebbe rendere "significativamente più facile per i malintenzionati comprendere meglio e successivamente portare a termine vari tipi di crimini", si legge nel documento. Ciò perché, mentre le informazioni su cui ChatGPT viene addestrato sono già liberamente disponibili su Internet, la tecnologia è in grado di fornire istruzioni su ogni tipo di argomento, se gli vengono poste le giuste domande da un utente.

Ecco allora quali tipi di reati potrebbero essere "agevolati" dall'uso dei chatbot.

Frodi, furti d'identità e disinformazione

ChatGPT e altri strumenti analoghi, come Bard di Google, hanno stupito gli utenti per la loro capacità di fornire testi simili a quelli umani su qualsiasi argomento, in base alle richieste degli utenti. Possono imitare lo stile di scrittura di un personaggio famoso e impararne uno a partire da un testo inserito, per poi crearne altri simili. Ciò apre a potenziali utilizzi illeciti: apre il sistema a un potenziale utilizzo da parte di criminali che vogliono copiare lo stile di scrittura di un individuo o di un'organizzazione, al fine ad esempio di effettuare truffe come il phishing.

L'Europol avverte inoltre che ChatGPT potrebbe essere utilizzato per dare credibilità a contenuti specifici, ad esempio creando post falsi sui social media con l'obiettivo di promuovere una proposta di investimento fraudolenta. Uno dei segni evidenti di una potenziale frode nelle comunicazioni via e-mail o social media è rappresentato infatti dagli evidenti errori di ortografia o grammatica commessi dai criminali che scrivono i contenuti.

Con la potenza degli LLM a portata di mano, anche i criminali con scarsa padronanza della lingua potrebbero essere in grado di generare contenuti che non presentano più questi segnali di allarme. La tecnologia è anche pronta per essere utilizzata da chi cerca di creare e diffondere propaganda e disinformazione, poiché è abile nel creare argomenti e narrazioni a grande velocità.

Criminalità informatica per principianti

Inoltre, ChatGPT non è solo bravo a scrivere, ma è anche abile in diversi linguaggi di programmazione. Secondo Europol, questo significa che potrebbe avere un impatto sulla criminalità informatica. "Con la versione attuale, è già possibile creare strumenti di base per una varietà di scopi illeciti", avverte il rapporto. Come la produzione di pagine di phishing, ad esempio. Ma più in generale il sistema consente a criminali con poche o alcuna conoscenza informatica possibilità che prima non avevano.

E gli inevitabili miglioramenti delle capacità di LLM comporteranno crescenti possibilità per i criminali: una "prospettiva cupa", secondo l'Europol. Il fatto che l'ultima versione sia in grado di comprendere meglio il contesto del codice e correggerne gli errori, significa che "si tratta di una risorsa gigantesca" per i criminali con scarse conoscenze tecniche.

L'Europol avverte dunque che, con il miglioramento della tecnologia, questa può diventare molto più avanzata "e di conseguenza pericolosa". 

I deepfake hanno già conseguenze nel mondo reale

Ma gli esempi illustrati da Europol rappresentano solo una parte dei possibili usi a scopi illeciti. Sono già state registrati  casi di deepfake finalizzati a truffare o danneggiare le persone. In un caso, una donna ha dichiarato che, quando aveva appena 18 anni, ha scoperto che circolavano online delle foto pornografiche che la ritraevano, nonostante non avesse mai scattato o condiviso quelle immagini.

Il suo volto era stato aggiunto artificialmente alle immagini del corpo di un'altra persona. La donna ha dichiarato a Euronews Next che si tratta di "una condanna a vita". Un rapporto di Deeptrace Labs del 2019 ha rilevato che il 96% dei contenuti deepfake online è pornografia non consensuale.

In un altro caso, l'intelligenza artificiale è stata utilizzata per imitare la voce di qualcuno per truffare i suoi familiari, utilizzando una tecnica di deepfake audio. L'Europol ha concluso il suo rapporto affermando che è importante per le forze dell'ordine "rimanere all'avanguardia di questi sviluppi" e anticipare e prevenire gli usi criminali.

Condividi questo articoloCommenti

Notizie correlate

Microsoft assume l'ex capo di OpenAI, Sam Altman

5 strumenti di intelligenza artificiale per la vostra ricerca accademica

ChatGPT: Necessario regolamentare l'intelligenza artificiale