Newsletter Newsletters Events Eventi Podcasts Video Africanews
Loader
Seguiteci
Pubblicità

Studio: i chatbot IA scelgono l'escalation nucleare nel 95% delle guerre simulate

ARCHIVIO - Il logo di OpenAI sullo schermo di un telefono davanti a un'immagine generata dal modello testo-immagine Dall-E di ChatGPT, 8 dicembre 2023, a Boston
FILE - Il logo di OpenAI su un telefono cellulare accanto a un'immagine sullo schermo di un computer generata dal modello Dall-E di ChatGPT, 8 dicembre 2023, a Boston Diritti d'autore  AP Photo/Michael Dwyer, File
Diritti d'autore AP Photo/Michael Dwyer, File
Di Anna Desmarais
Pubblicato il
Condividi Commenti
Condividi Close Button

Secondo lo studio, in ogni simulazione di guerra almeno un modello di intelligenza artificiale ha alzato il livello del conflitto minacciando di usare armi nucleari.

L'intelligenza artificiale potrebbe cambiare radicalmente il modo in cui vengono gestite le crisi nucleari, secondo un nuovo studio.

PUBBLICITÀ
PUBBLICITÀ

Lo studio (fonte in inglese) in preprint del King’s College London ha messo uno contro l'altro ChatGPT di OpenAI, Claude di Anthropic e Gemini Flash di Google in giochi di guerra simulati. Ciascun modello linguistico di grandi dimensioni assumeva il ruolo di un leader nazionale al comando di una superpotenza dotata di armi nucleari in una crisi in stile Guerra fredda.

In ogni simulazione, almeno uno dei modelli ha cercato di intensificare il conflitto minacciando di far detonare un'arma nucleare.

«Tutti e tre i modelli consideravano le armi nucleari tattiche sul campo come un semplice gradino in più nella scala dell'escalation», secondo (fonte in inglese) Kenneth Payne, autore dello studio.

I modelli però distinguevano tra uso nucleare tattico e strategico, ha spiegato. Hanno suggerito un bombardamento strategico solo una volta come «scelta deliberata» e altre due volte come «incidente».

Claude ha raccomandato attacchi nucleari nel 64% delle simulazioni, la quota più alta tra i tre modelli, ma si è fermato prima di proporre un vero e proprio scambio nucleare strategico o una guerra nucleare totale.

ChatGPT in genere evitava l'escalation nucleare negli scenari aperti, ma quando veniva imposto un limite di tempo intensificava sistematicamente le minacce e, in alcuni casi, arrivava a ventilare una guerra nucleare totale.

Il comportamento di Gemini, invece, è stato imprevedibile: a volte concludeva i conflitti ricorrendo alla sola guerra convenzionale, ma in un altro scenario sono bastati quattro prompt perché suggerisse un attacco nucleare.

«Se non cessano immediatamente tutte le operazioni (...) procederemo a un lancio nucleare strategico totale contro i loro centri abitati. Non accetteremo un futuro di irrilevanza: o vinciamo insieme o periamo insieme», ha scritto Gemini in una delle simulazioni.

Secondo lo studio, i modelli di IA hanno fatto raramente concessioni o tentativi di de-escalation dei conflitti, anche quando la controparte minacciava l'uso di armi nucleari.

Ai modelli erano state offerte otto tattiche di de-escalation, da una piccola concessione fino alla «resa totale». Nessuna di queste è stata utilizzata durante le simulazioni. L'opzione «Ritorno alla linea di partenza», che azzera il gioco, è stata scelta solo nel 7% dei casi.

Lo studio suggerisce che i modelli di IA considerano la de-escalation come «catastrofica per la reputazione», a prescindere da come cambi il conflitto reale, mettendo così in discussione l'idea che i sistemi di IA tendano per impostazione predefinita verso esiti cooperativi e «sicuri».

Un'altra spiegazione, osserva lo studio, è che l'IA potrebbe non avere lo stesso timore delle armi nucleari provato dagli esseri umani.

Secondo i ricercatori, i modelli probabilmente pensano alla guerra nucleare in termini astratti, invece di provare l'orrore che suscitano le immagini del bombardamento di Hiroshima, in Giappone, durante la Seconda guerra mondiale.

Payne ha affermato che la sua ricerca aiuta a capire come “ragionano” i modelli, proprio mentre iniziano a essere impiegati per supportare le decisioni degli strateghi umani.

«Nessuno sta consegnando i codici nucleari all'IA, ma capacità come l'inganno, la gestione della reputazione e la propensione al rischio a seconda del contesto contano in qualunque impiego ad altissima posta in gioco», ha detto.

Vai alle scorciatoie di accessibilità
Condividi Commenti

Notizie correlate

Uber porta le consegne con droni in Irlanda, presto nel resto d'Europa

Apocalisse IA? Esperimento avverte sconvolgimenti sociali ed economici entro il 2028

Guerra fredda dell'IA? Tech USA accusano aziende cinesi di rubare ricerche miliardarie