È pericolosa l'intelligenza artificiale in guerra? Quanto?

frame
frame Diritti d'autore AP/AP
Di euronews
Condividi questo articoloCommenti
Condividi questo articoloClose Button

Vincent Boulanin del National peace research institute ci ha elencato i vantaggi ma anche i problemi dell'Ia sul campo di battaglia. Alcune cose non le pensereste mai

PUBBLICITÀ

La Russia utilizza  le cosiddette "munizioni vaganti" (o "droni kamikaze") contro l'Ucraina. Si tratta di un mix tra un drone "normale" e un razzo. In teoria, questo tipo di munizioni possono colpire un'area specifica, cercando e determinando autonomamente il bersaglio.

Questi dispositivi sono quelli che di solito sono correlati al termine "Intelligenza artificiale" (Ia). Ma in realtà, il "drone kamikaze" non è così intelligente e l'ambito dell'Ia negli affari militari è molto più ampio.

Da quando si ricorre all'Intelligenza artificiale ?

 Il termine stesso di "Intelligenza artificiale" è stato utilizzato in relazione ai vari software  sin dagli anni Cinquanta.  Nel secolo scorso, "artificial intelligence" era il nome dato alle capacità che oggi si ritrovano su tutti gli smartphone. 

Anche le armi "intelligenti" sono apparse nel secolo scorso. Già allora esistevano, ad esempio, sistemi di guida per missili e proiettili, che consentivano di selezionare il bersaglio  senza intervento umano. 

O i sistemi di difesa antiaerea e missilistica delle navi, che, in caso di mancanza di tempo per prendere una decisione, potrebbero sparare contro quello, solitamente un missile, che è considerato  una minaccia.

Senza parlare della "mano morta", un sistema che può dare l'ordine di un attacco nucleare di rappresaglia se ritiene che le persone che lo controllano siano già morte. 

Ma dall'inizio degli anni Duemila, l'Ia ha fatto passi da gigante, come tutte le altre aree dell'informatica.

Secondo le Nazioni unite, il primo caso registrato di un sistema autonomo che ha ucciso una persona senza il coinvolgimento di un operatore si è verificato nella primavera del 2020 in Libia. 

Le truppe del governo di Fayez al Sarraj, il governo di accordo nazionale (Gan), utilizzavano droni autonomi di fabbricazione turca contro i soldati che sostenevano il maresciallo Khalifa Haftar.

Vincent Boulanin, ricercatore  del National peace research institute (Sipri), sostiene che: "Non è una singola tecnologia. È come parlare di elettricità. Così come l'elettricità ha applicazioni completamente diverse, l'Ia consente di potenziare alcune tecnologie in modo tale da renderle potenzialmente più efficienti, più economiche, più compatte e più autonome".

In che modo i militari usano l'Ia?

Secondo il Sipri non ci sono rimaste aree di attività militare in cui l'ia non venga utilizzata. I droni sono solo un esempio. Secondo gli analisti, nel 2028 il volume del mercato associato all'Ia in ambito militare supererà i 13,7 miliardi di dollari. 

Tra gli aspetti più conosciuti i cosiddetti sistemi di combattimento autonomi, o droni. Possono essere veicoli volanti, come il Bayraktar turco,  che arrivano al suolo o in acqua  sotto forma di un piccolo carro armato o di un veicolo corazzato 

Questi dispositivi possono andare a caccia in modo autonomo di  soldati nemici in una determinata area, rilevare autonomamente bersagli colpendo quello ritenuto più importante. 

L'uso più "popolare" dell'Ia è lo stesso nella vita militare e civile:  l'analisi di enormi database che sostituiscono le persone in attività che risultano essere noiose e monotone. Ad esempio, quando bisogna esaminare un gran numero di foto aeree e trovare un obiettivo specifico. Qui non stiamo nemmeno parlando di Ia "militare". Gli stessi schemi sono usati nei sistemi di riconoscimento facciale in strada.

Rilevamento e analisi di possibili minacce

L'intelligenza artificiale può formulare raccomandazioni basate sui dati molto più velocemente di un essere umano. Non solo, l'intelligenza artificiale è priva del "pregiudizio" insito nei controlli umani e non soffre dell'effetto "occhio sfocato", particolarmente importante in un ambiente di combattimento in rapida evoluzione. L'Ia è in grado non solo di valutare la situazione sul campo di battaglia, ma, entro certi limiti, di "prevedere il futuro" sulla base dell'esperienza delle azioni del nemico.

Prove e controlli

L'intelligenza artificiale può "simulare" il funzionamento di nuove attrezzature militari, nuovi dispositivi e persino nuovi concetti tattici, riducendo i costi e i tempi necessari per organizzare test reali. 

L' intelligenza artificiale può controllare autonomamente la battaglia come in un gioco per computer?

No. Tutti i programmi che possono essere classificati  applicazioni militari svolgono una gamma molto limitata di compiti. Alcuni analizzano la situazione, altri controllano droni autonomi, altri ancora possono dare efficacemente previsioni e “consigli” ai comandanti. In alcune condizioni, quando il tempo è estremamente breve, l'Ia può "prendere una decisione" da sola.

PUBBLICITÀ

Ma mettere tutto questo insieme in un unico piano di battaglia è ancora un compito umano. Né i militari né i civili si fidano abbastanza dell'intelligenza artificiale da consentirle di combattere "indipendentemente" una guerra o anche una singola battaglia. Dietro la "consolle più importante" c'è sempre una persona.

È pericoloso usare l'Intelligenza artificiale in guerra?

Secondo Vincent Bulanen, dello Stockholm Peace Research Institute, ci sono tre livelli di rischio associati all'Ia e al suo utilizzo militare.

Il primo livello è tecnologico. L'intelligenza artificiale è progettata in modo tale che anche gli stessi sviluppatori non possano sempre tracciare connessioni logiche e capire perché il robot "ha preso" questa o quella decisione. Questo è noto come il "problema della scatola nera". Pertanto, né i civili né i militari possono, in senso stretto, fidarsi completamente delle decisioni dell'Ia. E quindi, c'è sempre almeno un rischio teorico che il robot esegua un'azione che non ci si aspetta.

Ciò può essere evitato con uno sviluppo più attento degli algoritmi. Esistono algoritmi completamente "trasparenti", ma non sempre sono applicabili.

Il secondo livello è come l'Ia può cambiare il modo in cui organizziamo guerre e conflitti.

PUBBLICITÀ

Potrebbe essere più facile per gli esseri umani dare ordini di uccidere se  non c'è pericolo di morte, dal momento che ci sono solo robot sul campo di battaglia?

Ciò pone problemi umanitari di vasta scala. I civili saranno in prima linea.

Innanzitutto, il problema di distinguere un civile da un militare esiste e persiste. In secondo luogo, il rischio di catastrofi umanitarie potrebbe aumentare perché aumenterà il rischio di nuovi conflitti. Dopotutto, iniziare una "guerra tra robot" in termini morali può essere molto più semplice.

Il rischio che aumentino i conflitti

Qui, secondo Bulanen, è necessario insegnare ai militari a non affidarsi troppo all'Ia: non è un "robot che non sbaglia mai", ma un ordinario sistema creato dall'uomo che ha i suoi limiti e svantaggi. Dopotutto, un robot, come un essere umano, prende decisioni sulla base di determinati dati, e questi possono essere incompleti, errati o deliberatamente distorti.

Dice ancora Vincent Boulanin:  "Ci sono cose che i militari stessi possono fare: in termini di adozione di misure di riduzione del rischio, in termini di addestramento delle persone che utilizzeranno questi sistemi o decidere di non adottare un determinato sistema, perché il rischio di un incidente potrebbe essere troppo alto. Cioè, stiamo parlando di autocontrollo e valutazione del rischio."

PUBBLICITÀ

Terzo livello è la diffusione di quei sistemi.  L'intelligenza artificiale è, infatti, una "tecnologia a duplice uso". È ampiamente utilizzata in ambito civile ed è molto facile per gli specialisti adattare i codici pubblici ad uso militare.

"Non è come la tecnologia nucleare, non puoi comprare un'arma nucleare all'angolo. Ed è abbastanza facile sviluppare applicazioni di intelligenza artificiale. I dati sono già lì. I mezzi pure. Ci sono ingegneri in tutto il mondo. Quindi il Il rischio potenziale è che sia necessario molto poco per sviluppare l'intelligenza artificiale militare, e  bande criminali  criminali possono facilmente accedere a questa tecnologia", ancora Boulanin.

Ridurre questo rischio è molto difficile, poiché richiederà alcuni accordi restrittivi a livello internazionale. In primo luogo, possono entrare in conflitto con la libertà di diffusione delle informazioni (quando si tratta di Ia "pacifica"),  e in secondo luogo, questi documenti non avranno rilevanza alcuna per le bande di fuorilegge.

L'intelligenza artificiale cambierà i futuri conflitti (militari)?

Finora, da un punto di vista tecnologico, non esiste un robot che possa sostituire il tiratore con una mitragliatrice. Ma l'Ia ha già trovato un'ampia applicazione. 

Parte della risposta finale a questa domanda sfora nell'ambito etico.

PUBBLICITÀ

 "Alcune persone adottano un approccio pratico. Se in teoria l'Ia può aiutare a ridurre le vittime civili, perché non utilizzarla? Per altri invece non è normale automatizzare questo tipo di decisioni, anche se potrebbe essere efficace in qualche modo. Non vogliono farlo per un principio etico". 

In ultima analisi, comunque, il concetto di processo decisionale sta cambiando: queste decisioni saranno prese molto più velocemente, e in generale questo può accelerare il corso dei conflitti armati. I comandanti si affideranno maggiormente ai "consigli" dell'Ia, con i rischi che questo comporta.

Dal punto di vista del diritto internazionale  -le "leggi e consuetudini di guerra"-, non si parla ancora di Intelligenza artificiale. Un drone controllato dall'intelligenza artificiale non è diverso da un missile con un sistema di guida "normale" o da una bomba "stupida" senza guida. Se parliamo, ad esempio, di crimini di guerra, le persone ne saranno comunque responsabili, anche se la "decisione è stata presa" dal drone.

Condividi questo articoloCommenti

Notizie correlate

Il governo romeno ha assunto il primo consulente alimentato dall'intelligenza artificiale

Ucraina, la guerra alle porte dell'Europa: l'incognita Putin apre al ritorno della leva

Vesuvius Challenge: con l'IA si possono leggere le pergamene antiche senza srotolarle