EventsEventiPodcasts
Loader
Seguiteci
PUBBLICITÀ

Sei mesi fa gli esperti hanno chiesto una pausa agli esperimenti sull'IA. A che punto siamo?

Le macchine e l'IA
Le macchine e l'IA Diritti d'autore Canva
Diritti d'autore Canva
Di Luke Hurst
Pubblicato il Ultimo aggiornamento
Condividi questo articoloCommenti
Condividi questo articoloClose Button
Questo articolo è stato pubblicato originariamente in inglese

I leader del settore tecnologico hanno firmato una lettera aperta per chiedere una pausa agli esperimenti sull'intelligenza artificiale. I loro avvertimenti sono stati ascoltati?

PUBBLICITÀ

L'intelligenza artificiale (IA) rappresenta un rischio potenzialmente esistenziale per l'umanità? Pare proprio così, almeno secondo l'opinione del Future of life institute (Fli), che sei mesi fa ha pubblicato una lettera aperta per chiedere una "pausa immediata" di tutti i grandi esperimenti di IA.

La lettera è arrivata in un momento di grande interesse pubblico per l'IA generativa, quando applicazioni come ChatGPT e Midjourney hanno mostrato come la tecnologia si stia avvicinando sempre di più a replicare le capacità umane nella scrittura e nell'arte.

Per i firmatari della lettera - tra cui l'amministratore delegato di X, Tesla e SpaceX, Elon Musk, il cofondatore di Apple, Steve Wozniak, e lo scrittore, Yuval Noah Harari - l'ascesa  improvvisa dell'intelligenza artificiale generativa ha reso necessaria una pausa. Ad aziende come OpenAI di ChatGPT e Google è stato chiesto di considerare i "profondi rischi per la società e l'umanità" che la loro tecnologia potrebbe creare.

È giusto dire che i principali attori non hanno ancora detto basta.

Al contrario, altre aziende si sono unite alla corsa dell'IA generativa con i propri modelli linguistici di grandi dimensioni (Llm), con Meta che ha rilasciato Llama 2 e Anthropic che ha presentato il suo rivale di ChatGPT, Claude 2.

Che gli avvertimenti siano stati ascoltati o meno dai giganti tecnologici, la lettera della Fli è una  una pietra miliare in quello che si preannuncia come l'anno dell'IA.

Mark Brakel, direttore delle politiche dell'Istituto, afferma che non si aspettava di ricevere la risposta dopo quella lettera, con un'ampia copertura da parte della stampa e una rinnovata urgenza all'interno dei governi di capire come comportarsi con i rapidi progressi dell'IA.

La lettera è stata citata in un'audizione del Senato degli Stati Uniti e ha suscitato una risposta formale da parte del Parlamento europeo.

Brakel spiega a Euronews Next che l'imminente vertice globale sulla sicurezza dell'IA a Bletchley Park, nel Regno Unito, sarà una buona occasione per i governi di intervenire dove le aziende si rifiutano di frenare.

A suo avviso, la parola d'ordine finora è stata "IA generativa", ma presto potrebbe cambiare, prendendo decisioni e agendo in modo autonomo.

"Penso che questa sia forse la linea di tendenza che vediamo. Stiamo iniziando a vedere lo scraping video, podcast e Spotify come fonti alternative di dati, video e voce".

Ci si avvicina al disastro?

Brakel sottolinea che, sebbene "siamo diventati un po' come "l'organizzazione delle lettere"", la Fli è stata fondata nel 2014 e ha lavorato su tre aree principali di rischio a livello di civiltà: IA, biotecnologie e armi nucleari.

Sul suo sito web è presente un video particolarmente suggestivo, un resoconto fittizio e costoso di una catastrofe globale di Al nell'anno 2032. Tra le tensioni tra Taiwan e la Cina, l'affidamento militare all'intelligenza artificiale per il processo decisionale porta a una guerra nucleare totale; il video si conclude con il pianeta illuminato da armi nucleari.

Brakel ritiene che ci siamo avvicinati a questo tipo di scenario.

"L'integrazione dell'IA nel comando e nel controllo militare sta ancora progredendo, soprattutto con le grandi potenze. Tuttavia, vedo anche un maggiore desiderio di regolamentazione da parte degli Stati, soprattutto quando si guarda all'autonomia dei sistemi di armamento convenzionali", ha affermato.

PUBBLICITÀ

L'anno prossimo sembra promettente anche per la regolamentazione dell'autonomia in sistemi come droni, sottomarini e carri armati.

"Spero che questo permetta alle grandi potenze di raggiungere un accordo per evitare incidenti nel comando e controllo nucleare, che è un livello più sensibile rispetto alle armi convenzionali".

Regolamentazione in arrivo

Mentre le principali aziende di IA non hanno messo in stand-by la loro sperimentazione, i loro leader hanno riconosciuto i profondi rischi che l'IA e l'automazione comportano per l'umanità.

Sam Altman, amministratore delegato di OpenAI, all'inizio di quest'anno, ha invitato i politici statunitensi a istituire una regolamentazione governativa dell'IA, rivelando che i suoi "peggiori timori sono che noi, l'industria tecnologica, causiamo danni significativi al mondo". Questo potrebbe accadere in "molti modi diversi", ha aggiunto. Ha auspicato l'istituzione di un'agenzia statunitense o mondiale che conceda la licenza per i sistemi di IA più potenti.

PUBBLICITÀ

L'Europa, tuttavia, potrebbe rivelarsi il leader nella regolamentazione dell'intelligenza artificiale, con la legge storica dell'Unione europea sull'IA in fase di elaborazione.

I dettagli finali sono ancora in fase di elaborazione tra le istituzioni dell'Unione, ma il Parlamento europeo ha votato a stragrande maggioranza con 499 voti a favore, 28 contrari e 93 astensioni.

In base alla legge, i sistemi di intelligenza artificiale saranno suddivisi in diversi livelli in base al livello di rischio, con i tipi più rischiosi vietati e i sistemi a rischio limitato che richiedono determinati livelli di trasparenza e supervisione.

"In generale siamo abbastanza soddisfatti della legge", afferma Brakel. "Una cosa che abbiamo sostenuto fin dall'inizio, quando la legge è stata proposta per la prima volta dalla Commissione, è la necessità di regolamentare i sistemi basati sui Gpt. All'epoca si parlava di Gpt3 e non di 4 (i modelli di trasformatori di OpenAI), ma il principio rimane lo stesso e ci troviamo di fronte a un'intensa attività di lobbying da parte delle big tech."

PUBBLICITÀ

"Negli Stati Uniti e nell'Unione europea si parla di un'idea secondo la quale solo gli utenti dei sistemi di IA, i distributori, sanno in quale contesto vengono impiegati".

Viene citato come esempio, un ospedale che utilizza un chatbot per contattare i pazienti. "Acquisterà il chatbot da OpenAI, non lo costruirà da solo. E se poi si verifica un errore per il quale si viene ritenuti responsabili perché si è dato un consiglio medico che non si doveva dare, è chiaro che bisogna capire che tipo di prodotto si è acquistato. E una parte di questa responsabilità dovrebbe essere condivisa".

Mentre l'Europa attende la formulazione finale della legge europea sull'IA, il vertice mondiale sulla sicurezza dell'IA che si terrà il 1° novembre dovrebbe essere il prossimo evento che fornirà alcune indicazioni su come i leader di tutto il mondo si avvicineranno alla regolamentazione dell'IA nel prossimo futuro.

Condividi questo articoloCommenti

Notizie correlate

La spunta blu di X è ingannevole e violerebbe il Dsa, Musk: Da Commissione accordo segreto illegale

La Germania bandisce componenti cinesi dalle reti 5G

Apple apre l'accesso ai pagamenti sugli iPhone e risolve i problemi di concorrenza dell'Ue