Newsletter Newsletters Events Eventi Podcasts Video Africanews
Loader
Seguiteci
Pubblicità

Cybercriminali provano l'IA ma restano delusi, secondo uno studio

I criminali informatici sono interessati all'IA, ma per ora non ne ricavano veri vantaggi nel loro lavoro, secondo un nuovo studio.
I criminali informatici guardano con interesse all’IA, ma per ora non ne ricavano ancora benefici concreti nel loro lavoro, secondo un nuovo studio. Diritti d'autore  Canva
Diritti d'autore Canva
Di Anna Desmarais
Pubblicato il
Condividi Commenti
Condividi Close Button

Una nuova ricerca dell'Università di Edimburgo ha rilevato che gli hacker ottengono pochi risultati usando strumenti di IA, sia nelle truffe sia nello sviluppo di strumenti più efficaci.

Secondo una nuova analisi, i cybercriminali fanno fatica a integrare l’intelligenza artificiale (IA) nelle proprie attività.

PUBBLICITÀ
PUBBLICITÀ

Uno studio in pre-print dell’Università di Edimburgo ha analizzato oltre 100 milioni di post pubblicati su forum da criminali informatici, utilizzando il database CrimeBB, che raccoglie dati da forum clandestini.

I dati sono stati analizzati sia manualmente, sia con l’ausilio di un modello linguistico di grandi dimensioni (LLM).​

Lo studio rileva che, sebbene i cybercriminali abbiano mostrato interesse a imparare a usare strumenti di IA, la tecnologia non ha cambiato in modo significativo il loro modo di «lavorare».

«Molte delle recensioni e delle discussioni descrivono questi strumenti di [IA] come non particolarmente utili», si legge nello studio.

I ricercatori non hanno trovato «alcuna prova significativa» che gli hacker siano riusciti a usare l’IA per migliorare le proprie attività di intrusione, né come strumento di apprendimento né per sviluppare strumenti più efficaci.

Gli assistenti di programmazione basati sull’IA sono utili soprattutto a chi sa già programmare; per questo, i modelli che offrono supporto al coding non danno un vantaggio rilevante quando si tenta di violare dispositivi o aggirare misure di sicurezza, aggiunge lo studio.

«Per prima cosa devi imparare da solo le basi della programmazione, prima di poter usare l’IA e trarne DAVVERO beneficio», si legge in uno dei post citati nello studio.

La principale ricaduta dell’IA sulle attività online illegali riguarda per ora le aree facilmente automatizzabili. Si tratta della creazione di bot sui social network, di alcune truffe sentimentali e delle frodi legate alla search engine optimisation (SEO), cioè la creazione di siti falsi spinti in alto nei risultati dei motori di ricerca per guadagnare con la pubblicità.

Le recensioni indicano che anche gli hacker più esperti usano chatbot per farsi aiutare a rispondere a domande di programmazione o per generare «cheatsheet», schemi riassuntivi che li aiutano a scrivere codice.​

L’IA che viene effettivamente utilizzata rientra perlopiù nei «prodotti mainstream e legittimi», come Claude di Anthropic o Codex di OpenAI, e non in modelli creati apposta per la criminalità informatica, come WormGPT, progettato dagli hacker per generare codice malevolo o email di phishing.

Molti dei post analizzati riguardano richieste di tecniche per aggirare i sistemi di sicurezza di questi modelli mainstream, ma sembra che i criminali facciano fatica a convincere i sistemi di IA a ignorare le proprie impostazioni di sicurezza.

Per questo i cybercriminali sono costretti a ripiegare su modelli di IA open source più vecchi e di qualità inferiore, più facili da «sbloccare». Questi però sono in genere meno utili e «richiedono risorse significative», spiegano i ricercatori.

Secondo lo studio, le barriere di sicurezza introdotte dalle aziende dell’IA stanno funzionando, almeno per il momento.

Vai alle scorciatoie di accessibilità
Condividi Commenti

Notizie correlate

Europe Today: Nato in crisi, quale futuro per sicurezza europea e rapporti Europa-Usa?

Processo Meta che può cambiare i social: tutto quello che c'è da sapere

Controlli età online: bambini si disegnano baffi finti in volto e il trucco funziona