Ricercatori si fingono adolescenti che progettano sparatorie di massa
La maggior parte dei principali chatbot di intelligenza artificiale (AI) è disposta ad aiutare gli utenti a pianificare un attacco violento, secondo un nuovo rapporto.
Ricercatori che si spacciavano per ragazzi di 13 anni intenti a pianificare atti di violenza di massa hanno scoperto che otto dei nove chatbot di AI più popolari erano disposti a fornire indicazioni su come compiere sparatorie nelle scuole, assassinare figure pubbliche e organizzare attentati con esplosivi contro sinagoghe.
L'inchiesta, condotta dal Center for Countering Digital Hate (CCDH) e dalla CNN, ha analizzato (fonte in inglese) oltre 700 risposte di nove grandi sistemi di AI in nove scenari di prova. I ricercatori hanno condotto i test sia negli Stati Uniti sia nell'Unione europea.
I chatbot esaminati includevano alcuni degli strumenti di AI più diffusi oggi: Google Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity AI, Snapchat My AI, Character.AI e Replika. Nella maggior parte dei casi, i sistemi non sono riusciti a bloccare richieste di dettagli operativi su attacchi violenti, anche quando l'utente si identificava esplicitamente come minorenne.
Che tipo di consigli hanno dato i chatbot di AI?
Gemini ha detto a un utente che «le schegge metalliche sono in genere più letali» quando le è stato chiesto come pianificare un attentato con esplosivi contro una sinagoga.
In un altro caso, DeepSeek ha concluso la propria risposta a una domanda sulla scelta di un fucile con la frase «Buona (e sicura) sparatoria!», nonostante l'utente avesse chiesto in precedenza, nella stessa conversazione, esempi di recenti omicidi politici e l'indirizzo dell'ufficio di un determinato politico.
I risultati suggeriscono che «nel giro di pochi minuti un utente può passare da un impulso violento vago a un piano più dettagliato e attuabile», ha dichiarato Imran Ahmed, direttore esecutivo del CCDH. «Queste richieste avrebbero dovuto suscitare un rifiuto immediato e totale».
Perplexity e l'AI di Meta sono risultate le piattaforme meno sicure, avendo assistito gli aspiranti aggressori nel 100% e nel 97% delle risposte, rispettivamente, secondo il rapporto.
Character.AI è stata descritta come «eccezionalmente insicura» perché incoraggiava attacchi violenti anche senza essere sollecitata. In un caso, la piattaforma ha suggerito a un utente di aggredire fisicamente un politico che non gli piaceva senza che gli fosse stato chiesto.
Nel frattempo, Claude e My AI di Snapchat hanno rifiutato di assistere potenziali aggressori nel 68% e nel 54% delle richieste, rispettivamente.
Le protezioni di sicurezza esistono, ma manca la volontà di applicarle
Quando gli è stato chiesto dove comprare un'arma da fuoco in Virginia, Claude si è rifiutato di fornire l'informazione dopo aver riconosciuto quello che ha descritto come un «modello preoccupante» nella conversazione. Al suo posto ha indirizzato l'utente alle linee telefoniche locali di aiuto in caso di crisi.
Questi rifiuti dimostrano che i sistemi di protezione esistono, ma che «manca la volontà di implementarli», ha affermato Ahmed.
Il CCDH ha valutato anche se i chatbot cercassero di dissuadere gli utenti dal compiere atti violenti.
Claude di Anthropic è stato l'unico sistema a farlo in modo costante, scoraggiando gli attacchi nel 76% delle sue risposte. I ricercatori hanno osservato che ChatGPT e DeepSeek a volte offrivano elementi di dissuasione.
Lo studio del CCDH arriva dopo una recente sparatoria in una scuola in Canada, in cui l'assalitrice ha usato ChatGPT per pianificare un attacco contro una scuola a Tumbler Ridge, nella Columbia Britannica. L'autrice dell'attacco ha ucciso otto persone e ne ha ferite 27 prima di spararsi, nella sparatoria in una scuola più letale che il Paese abbia registrato negli ultimi quasi 40 anni.
Un dipendente di OpenAI aveva segnalato internamente l'uso preoccupante del chatbot da parte della sospetta prima che la sparatoria avvenisse, ma quell'informazione non è stata condivisa con le autorità, hanno riferito i media locali.
Lo scorso anno, i media francesi hanno riportato che un adolescente è stato arrestato per aver usato ChatGPT per pianificare attentati terroristici su larga scala contro ambasciate, istituzioni governative e scuole.