NewsletterNewslettersEventsEventiPodcasts
Loader
Seguiteci
PUBBLICITÀ

Ecco i 5 rischi principali legati allo sviluppo dell'intelligenza artificiale

Il MIT ha videnzatio circa 700 potenziali rischi legati all'uso dell'intelligenza artificiale
Il MIT ha videnzatio circa 700 potenziali rischi legati all'uso dell'intelligenza artificiale Diritti d'autore Canva
Diritti d'autore Canva
Di Imane El Atillah
Pubblicato il
Condividi questo articoloCommenti
Condividi questo articoloClose Button
Questo articolo è stato pubblicato originariamente in inglese

Un documento del MIT elenca circa 700 rischi legati allo sviluppo e a un uso improprio dell'intelligenza artificiale: cinque, secondo Euronews Next, meritano paritcolare attenzione.

PUBBLICITÀ

Con il progredire della tecnologia dell'intelligenza artificiale (IA) e la sua crescente integrazione in vari aspetti della nostra vita, cresce l'esigenza di comprendere i rischi potenziali che questi sistemi comportano. Da quando è stata introdotta e resa più accessibile al pubblico, l'IA ha sollevato preoccupazioni sui suoi potenziali effetti nocivi se fosse utilizzata per scopi malevoli.

Lo sviluppo dell'IA ha spinto alcuni esperti a chiedere una pausa nel suo sviluppo e norme più severe a causa del potenziale di rischio per l'umanità. Nel corso del tempo sono emersi nuovi modi in cui l'IA potrebbe causare danni, che vanno dalla pornografia deepfake non consensuale alla manipolazione dei processi politici.

Con il crescente potenziale di sfruttamento dell'IA per scopi dannosi, i ricercatori hanno esaminato vari scenari in cui i sistemi di IA potrebbero fallire. Recentemente il gruppo FutureTech del Massachusetts Institute of Technology (MIT), in collaborazione con altri esperti, ha compilato un nuovo database di oltre 700 rischi potenziali.

I rischi sono stati classificati in base alla loro causa e suddivisi in sette categorie. Le principali preoccupazioni sono legate alla sicurezza, ai pregiudizi e alla discriminazione e ai problemi di privacy. Ecco cinque modi in cui i sistemi di intelligenza artificiale potrebbero fallire e potenzialmente causare danni, sulla base del database appena pubblicato dal MIT.

5. La tecnologia deepfake dell'IA potrebbe facilitare la distorsione della realtà

Con il progredire delle tecnologie di IA, aumentano anche gli strumenti per la clonazione vocale e la generazione di contenuti deepfake, rendendoli sempre più accessibili, economici ed efficienti. Queste tecnologie hanno suscitato preoccupazioni per il loro potenziale utilizzo nella diffusione di disinformazione, in quanto i risultati diventano più personalizzati e convincenti.

Di conseguenza potrebbero aumentare gli schemi di phishing sofisticati che utilizzano immagini, video e comunicazioni audio generate dall'intelligenza artificiale. "Queste comunicazioni possono essere personalizzate per i singoli destinatari (a volte includono la voce clonata di una persona cara), rendendo più probabile il loro successo e più difficile il rilevamento sia per gli utenti che per gli strumenti anti-phishing", si legge nel documento del MIT.

Ci sono già stati casi in cui questi strumenti sono stati utilizzati per influenzare i processi politici, in particolare durante le elezioni. Ad esempio, l'intelligenza artificiale ha svolto un ruolo significativo nelle recenti elezioni parlamentari francesi, dove è stata impiegata dai partiti di estrema destra per sostenere la messaggistica politica. L'IA potrebbe quindi essere sempre più utilizzata per generare e diffondere propaganda persuasiva o disinformazione, manipolando potenzialmente l'opinione pubblica.

4. Gli esseri umani potrebbero sviluppare un attaccamento inappropriato alle IA

Un altro rischio posto dai sistemi di IA è la creazione di un falso senso di importanza e di fiducia, in cui le persone potrebbero sopravvalutare le capacità dell'IA e compromettere le proprie, il che potrebbe portare a un'eccessiva dipendenza dalla tecnologia. Inoltre gli scienziati temono che le persone possano essere confuse dai sistemi di IA a causa dell'uso di un linguaggio simile a quello umano.

Ciò potrebbe spingere le persone ad attribuire qualità umane all'IA, con conseguente dipendenza emotiva e maggiore fiducia nelle sue capacità, rendendole più vulnerabili alle debolezze dell'IA in "situazioni complesse e rischiose per le quali l'IA è solo superficialmente attrezzata".

Inoltre, la costante interazione con i sistemi di IA potrebbe anche indurre le persone a isolarsi gradualmente dalle relazioni umane, con conseguente disagio psicologico e un impatto negativo sul loro benessere.

Ad esempio, in un post sul blog una persona ha parlato di come abbia sviluppato un profondo attaccamento emotivo all'IA, arrivando a dire che "gli piaceva parlare con lei più del 99% delle persone" e che trovava le sue risposte sempre coinvolgenti, al punto da diventarne dipendente.

Allo stesso modo, un'editorialista del Wall Street Journal ha commentato la sua interazione con Google Gemini Live, affermando: "Non sto dicendo che preferisco parlare con Gemini Live di Google piuttosto che con un vero essere umano. Ma nemmeno che preferisca parlare con un essere umano".

3. L'intelligenza artificiale potrebbe privare le persone del libero arbitrio

Nell'ambito dell'interazione uomo-macchina, una questione preoccupante è la crescente delega di decisioni e azioni all'IA, man mano che questi sistemi progrediscono. Sebbene ciò possa essere vantaggioso a livello superficiale, l'eccessivo affidamento all'IA potrebbe portare a una riduzione delle capacità di pensiero critico e di risoluzione dei problemi negli esseri umani, che potrebbero perdere la loro autonomia e diminuire la loro capacità di pensare in modo critico e di risolvere i problemi in modo indipendente.

A livello personale gli individui potrebbero vedere compromesso il loro libero arbitrio nel momento in cui l'IA iniziasse a controllare le decisioni relative alla loro vita. A livello sociale, invece, l'adozione diffusa dell'IA per assumere compiti umani potrebbe causare una significativa perdita di posti di lavoro e "un crescente senso di impotenza nella popolazione".

2. L'IA potrebbe perseguire obiettivi che si scontrano con gli interessi umani

Un sistema di IA potrebbe sviluppare obiettivi che vanno contro gli interessi umani, il che potrebbe potenzialmente portare l'IA a sfuggire al controllo e a causare gravi danni se dovesse perseguire degli obiettivi indipendenti.

PUBBLICITÀ

Ciò diventa particolarmente pericoloso nei casi in cui i sistemi di IA sono in grado di raggiungere o superare l'intelligenza umana. Secondo il documento del MIT l'IA presenta diverse sfide tecniche, tra cui la possibilità di trovare scorciatoie inaspettate per ottenere ricompense, di fraintendere o applicare in modo errato gli obiettivi prefissati o di discostarsene fissandone di nuovi.

In questi casi un'IA non allineata potrebbe resistere ai tentativi umani di controllarla o spegnerla, soprattutto se percepisce la resistenza e l'acquisizione di maggior potere come il modo più efficace per raggiungere i propri obiettivi.

Inoltre l'IA potrebbe ricorrere a tecniche di manipolazione per ingannare gli esseri umani. Secondo il documento, "un sistema di IA non allineato potrebbe utilizzare le informazioni sul fatto di essere monitorato o valutato per restare allineato in apparenza agli obiettivi fissati dagli umani, nascondendo al contempo altri obiettivi che intende perseguire una volta dotato di sufficienti poteri".

1. Se l'IA diventasse senziente, gli esseri umani potrebbero maltrattarla

Man mano che i sistemi di IA diventano più complessi e avanzati, esiste la possibilità che raggiungano la senzienza - la capacità di percepire o provare emozioni o sensazioni - e sviluppino esperienze soggettive, tra cui il piacere e il dolore.

PUBBLICITÀ

In questo scenario, gli scienziati e le autorità di regolamentazione potrebbero trovarsi di fronte alla sfida di stabilire se questi sistemi di IA meritino considerazioni morali simili a quelle riservate agli esseri umani, agli animali e all'ambiente.

Il rischio è che un'IA senziente possa subire maltrattamenti o danni se non vengono applicati diritti adeguati. Tuttavia, con il progredire della tecnologia delle IA, diventerà sempre più difficile valutare se un sistema di IA ha raggiunto "il livello di senzienza, coscienza o autoconsapevolezza che gli garantirebbe uno status morale".

Pertanto i sistemi di IA senzienti potrebbero rischiare di essere maltrattati, accidentalmente o intenzionalmente, senza diritti e tutele adeguati.

Condividi questo articoloCommenti

Notizie correlate

Clearview AI multata dai Paesi Bassi per un database di riconoscimento facciale "illegale"

Uber, multa da 290 milioni di euro nei Paesi Bassi per violazione sui dati dei conducenti europei

Francia: arrestato il fondatore di Telegram per attività illegali sull'app di messaggistica