Newsletter Newsletters Events Eventi Podcasts Video Africanews
Loader
Seguiteci
Pubblicità

Anthropic: hacker cinesi filogovernativi hanno usato la sua IA per un massiccio attacco informatico

Il sito web e l'app per smartphone di Anthropic in una foto d'archivio del 5 luglio 2024.
In questa foto d'archivio del 5 luglio 2024 sono visibili il sito web e l'app per smartphone di Anthropic. Diritti d'autore  Richard Drew/AP Photo
Diritti d'autore Richard Drew/AP Photo
Di Roselyne Min
Pubblicato il
Condividi Commenti
Condividi Close Button

Anthropic ha dichiarato che l'incidente è stato il primo cyberattacco documentato, condotto in larga parte senza intervento umano.

La startup di intelligenza artificiale (IA) Anthropic ha affermato che hacker sponsorizzati dallo Stato cinese hanno utilizzato i suoi strumenti di IA per condurre attacchi informatici automatizzati contro grandi aziende e governi.

Anthropic, con sede negli Stati Uniti, ha detto di ritenere "con alto grado di certezza" che gli hacker, autori di circa 30 attacchi, appartengano a "un gruppo sponsorizzato dallo Stato cinese".

Gli hacker hanno usato lo strumento Claude Code di Anthropic nel tentativo di violare i sistemi di bersagli in tutto il mondo, comprese agenzie governative e aziende finanziarie e tecnologiche, e "ci sono riusciti in un numero limitato di casi", ha riferito l'azienda.

Anthropic non ha indicato i soggetti colpiti, ma ha definito l'operazione la "prima campagna di cyberspionaggio orchestrata dall'IA" di cui si abbia notizia.

Secondo Anthropic, gli hacker volevano usare Claude Code per estrarre dati sensibili dai loro bersagli e organizzarli per individuare le informazioni di maggior valore.

Pur essendo addestrato a evitare comportamenti dannosi, Claude è stato indotto, ha spiegato Anthropic, a svolgere attività automatiche malevole facendo passare le richieste per test di sicurezza informatica.

Secondo l'azienda, l'IA ha svolto dall'80% al 90% della campagna, con intervento umano richiesto "solo sporadicamente".

"Se le affermazioni di Anthropic saranno confermate, significherebbe che i gruppi ostili non stanno più sperimentando con l'IA. Sono operativi", ha detto Graeme Stewart, responsabile del settore pubblico presso l'azienda di sicurezza informatica Check Point Software Technologies.

Anthropic ha rilevato l'attacco a metà settembre e ha avviato subito un'indagine. Nei successivi dieci giorni ha bloccato l'accesso del gruppo a Claude e ha contattato le organizzazioni colpite e le forze dell'ordine.

L'azienda ritiene che attacchi di questo tipo diventeranno sempre più efficaci nel tempo e che ha ampliato le proprie capacità di rilevamento per segnalare attività potenzialmente dannose.

Ha aggiunto di lavorare su metodi ulteriori per indagare e individuare attacchi su larga scala e distribuiti come questo.

Secondo Stewart, anche altri modelli di IA potrebbero essere sfruttati per attacchi criminali online.

"Qualsiasi assistente di IA ampiamente diffuso può finire in un kit per attività criminali se qualcuno con sufficiente determinazione lo sfrutta nel modo 'giusto'", ha affermato.

Vai alle scorciatoie di accessibilità
Condividi Commenti

Notizie correlate

Astronauti cinesi bloccati nello spazio per i danni causati da detriti spaziali tornano sulla Terra

La Francia vuole rafforzare le difese spaziali: ecco i primi acquisti possibili

Falsi negozi online in aumento del 250% in vista del Black Friday, i dati in esclusiva su Euronews