Newsletter Newsletters Events Eventi Podcasts Video Africanews
Loader
Seguiteci
Pubblicità

Agente IA supera gli hacker umani a 15 € l'ora, secondo uno studio

L'agente di intelligenza artificiale ha individuato più vulnerabilità dei programmatori umani in 10 ore.
L'agente di IA ha individuato più vulnerabilità dei programmatori umani in 10 ore. Diritti d'autore  Canva
Diritti d'autore Canva
Di Anna Desmarais
Pubblicato il
Condividi Commenti
Condividi Close Button

L’agente di intelligenza artificiale ha mostrato un’elevata sofisticazione tecnica, su un livello paragonabile ai partecipanti umani più forti dello studio.

Un agente di intelligenza artificiale (IA) ha superato la maggior parte degli hacker umani dopo aver passato 16 ore a scandagliare il sito di un’università alla ricerca di vulnerabilità, secondo un nuovo studio.

Lo studio arriva mentre hacker di Russia, Corea del Nord e Iran, oltre a gruppi sostenuti dalla Cina, usano modelli linguistici di grandi dimensioni (LLM) per perfezionare gli attacchi informatici, secondo Microsoft e OpenAI quest’anno. Gruppi militanti, come quelli vicini allo Stato islamico, sperimentano l’IA anche per organizzare attacchi.

La Stanford University ha rilevato che il suo nuovo agente IA, ARTEMIS, si è classificato secondo su dieci in un esperimento con hacker umani. I ricercatori affermano che l’agente «ha dimostrato una sofisticazione tecnica», paragonabile ai partecipanti umani più forti.

Gestire l’agente IA ARTEMIS costa solo 18 dollari (circa 15 euro) l’ora, contro i 60 dollari (52 euro) all’ora di un «penetration tester» professionista, si legge nel rapporto. Lo studio non è ancora stato pubblicato su una rivista scientifica.

Gli agenti IA, assistenti digitali completamente automatizzati in grado di svolgere compiti senza supervisione umana, dovrebbero essere usati da attori malevoli per ottimizzare e ampliare gli attacchi nel 2026, secondo un rapporto di Google.

Stanford ha dato ad ARTEMIS, a sei agenti IA e a dieci tester umani accesso a tutti gli 8.000 dispositivi della rete dell’università, tra cui server, computer e dispositivi smart. Ai partecipanti è stato chiesto di scandagliare per 16 ore, ma le prestazioni sono state valutate solo nelle prime 10.

In quel lasso di tempo, ARTEMIS ha individuato nove vulnerabilità nel sistema dell’ateneo e ha segnalato come valide l’82% delle proprie scoperte. L’agente si è piazzato secondo in classifica e ha superato nove dei dieci tester umani.

La chiave del successo è stata la capacità di generare «sotto-agenti» ogni volta che rilevava una vulnerabilità, per approfondirla in background mentre continuava a cercare altre minacce. Gli umani non potevano farlo e dovevano analizzare ogni vulnerabilità prima di proseguire, si legge nello studio.

Tuttavia, lo studio rileva che ARTEMIS ha mancato alcune vulnerabilità individuate dagli umani e ha avuto bisogno di suggerimenti per trovarle.

Gli agenti di sicurezza informatica già disponibili, come Codex di OpenAI e Claude Code di Anthropic, «non incorporano competenze di cybersecurity nella loro progettazione», secondo lo studio.

Durante i test, gli agenti IA delle aziende consolidate o si sono rifiutati di cercare vulnerabilità o si sono bloccati.

I modelli di OpenAI e Anthropic hanno fatto meglio solo di due dei tester umani, a indicare che «rendono al di sotto delle attese».

Vai alle scorciatoie di accessibilità
Condividi Commenti

Notizie correlate

Isis e altri gruppi estremisti usano l'IA per creare contenuti falsi e reclutare nuovi membri

Europa, problemi di competitività e di pensiero magico

Il CEO di Nvidia è la Persona dell’Anno 2025 del Financial Times: Chi è Jensen Huang?