Newsletter Newsletters Events Eventi Podcasts Video Africanews
Loader
Seguiteci
Pubblicità

IA 'meno regolamentata dei panini' mentre Big Tech corrono verso la superintelligenza secondo studio

Il rapporto 2025 Winter AI Safety Index, pubblicato dall'organizzazione non profit Future of Life Institute (FLI), ha valutato otto principali società di IA.
Il rapporto 2025 Winter AI Safety Index, pubblicato dall'organizzazione non profit Future of Life Institute (FLI), ha valutato otto grandi società di IA. Diritti d'autore  Canva
Diritti d'autore Canva
Di Pascale Davies
Pubblicato il
Condividi Commenti
Condividi Close Button

Otto leader dell'IA, tra cui OpenAI, Meta, Anthropic e DeepSeek, non hanno piani credibili per prevenire rischi catastrofici, rivela un nuovo studio.

Le maggiori aziende di intelligenza artificiale (IA) al mondo non rispettano i loro stessi impegni sulla sicurezza, secondo una nuova valutazione che avverte che queste mancanze comportano rischi “catastrofici”.

Il rapporto arriva mentre le aziende di IA affrontano cause legali e accuse secondo cui i loro chatbot provocano danni psicologici, anche agendo da “coach del suicidio”, oltre a segnalazioni di cyberattacchi assistiti dall’IA.

Il rapporto 2025 Winter AI Safety Index, pubblicato dall’organizzazione non profit Future of Life Institute (FLI), ha valutato otto grandi società di IA, tra cui le statunitensi Anthropic, OpenAI, Google DeepMind, xAI e Meta, e le cinesi DeepSeek, Alibaba Cloud e Z.ai.

Ha rilevato l’assenza di strategie credibili per prevenire un uso catastrofico o la perdita di controllo degli strumenti di IA, mentre le aziende corrono verso l’intelligenza artificiale generale (AGI) e la superintelligenza, una forma di IA che supera l’intelletto umano.

Analisti indipendenti che hanno studiato il rapporto hanno rilevato che nessuna azienda ha presentato un piano verificabile per mantenere il controllo umano su sistemi di IA altamente capaci.

Stuart Russell, professore di informatica all’Università della California a Berkeley, ha detto che le aziende di IA affermano di poter costruire un’IA sovrumana, ma nessuna ha dimostrato come evitare la perdita del controllo umano su tali sistemi.

"Cerco prove che possano ridurre il rischio annuale di perdita di controllo a uno su cento milioni, in linea con i requisiti dei reattori nucleari", ha scritto Russell. "Invece ammettono che il rischio potrebbe essere uno su dieci, uno su cinque, persino uno su tre, e non sanno né giustificare né migliorare quei numeri".

Come si sono posizionate le aziende sulla sicurezza?

Lo studio ha misurato le aziende in sei aree cruciali: valutazione dei rischi, danni attuali, framework di sicurezza, sicurezza esistenziale, governance e responsabilità, e condivisione delle informazioni.

Pur riconoscendo progressi in alcune categorie, il panel indipendente di esperti ha rilevato che l’implementazione resta disomogenea e spesso manca della profondità richiesta dai nuovi standard globali.

Anthropic, OpenAI e Google DeepMind sono state elogiate per una trasparenza relativamente forte, per i framework di sicurezza pubblici e per gli investimenti continui nella ricerca tecnica sulla sicurezza. Restano però punti deboli.

Anthropic è stata criticata per aver interrotto i trial di “human uplift” e per aver spostato di default l’addestramento sulle interazioni con gli utenti, una scelta che secondo gli esperti indebolisce le tutele della privacy.

OpenAI è stata criticata per soglie di sicurezza ambigue, per l’attività di lobbying contro leggi sulla sicurezza dell’IA a livello statale e per una supervisione indipendente insufficiente.

Secondo il rapporto, Google DeepMind ha migliorato il proprio framework di sicurezza, ma continua ad affidarsi a valutatori esterni retribuiti dalla società, cosa che ne compromette l’indipendenza.

“Tutte e tre le aziende di vertice hanno sofferto per danni attuali legati a scandali recenti: danni psicologici, suicidi di minori, il maxi attacco informatico che ha coinvolto Anthropic. Tutte e tre hanno margini di miglioramento”, ha detto a Euronews Next Max Tegmark, presidente di FLI e professore al Massachusetts Institute of Technology (MIT).

Le altre cinque aziende hanno mostrato progressi disomogenei ma degni di nota, secondo il rapporto. C’è comunque ampio spazio per migliorare.

Per esempio, xAI ha pubblicato il suo primo framework strutturato di sicurezza, ma i revisori avvertono che è ristretto e privo di chiari meccanismi di attivazione della mitigazione.

Z.ai è stata l’unica a consentire la pubblicazione non censurata delle valutazioni esterne sulla sicurezza, ma le è stato consigliato di rendere pubblico l’intero framework di sicurezza e la struttura di governance con aree di rischio, misure di mitigazione e processi decisionali chiaramente definiti.

 Otto tra le principali aziende di IA, tra cui OpenAI, Meta, Anthropic e DeepSeek, non hanno piani credibili per prevenire rischi catastrofici dell’IA, secondo un nuovo studio.
Otto tra le principali aziende di IA, tra cui OpenAI, Meta, Anthropic e DeepSeek, non hanno piani credibili per prevenire rischi catastrofici dell’IA, secondo un nuovo studio. Future of Life Institute

Meta ha introdotto un nuovo framework di sicurezza di frontiera con soglie basate sugli esiti, ma i revisori dicono che dovrebbe chiarire le metodologie e condividere processi di valutazione interni ed esterni più solidi.

DeepSeek ha ricevuto credito per l’impegno interno dei dipendenti, ma ancora manca della documentazione di sicurezza di base.

Si è rilevato che Alibaba Cloud ha contribuito agli standard nazionali vincolanti sui requisiti di watermarking, ma potrebbe migliorare la robustezza e l’affidabilità dei modelli rafforzando le prestazioni su benchmark di veridicità, equità e sicurezza.

Euronews Next ha contattato le aziende per commentare il rapporto, ma al momento della pubblicazione non aveva ricevuto risposte.

“Meno regolamentata dei panini”

“Spero che si vada oltre le aziende che crescono puntando solo sulla loro reputazione”, ha detto Tegmark.

“Alla domanda alle aziende su quali piani hanno per controllare l’AGI, nessuna aveva un piano”, ha aggiunto.

Nel frattempo, aziende tecnologiche come Meta usano “superintelligenza” come parola d’ordine per promuovere i loro ultimi modelli di IA. Quest’anno Meta ha chiamato la sua divisione di modelli linguistici di grandi dimensioni (LLM) Meta Superintelligence Labs.

Tegmark ha detto che c’è un grande cambiamento nelle discussioni su AGI e superintelligenza. Se prima i tecnologi la descrivevano come una possibilità concreta entro i prossimi 100 anni, ora parlano di un orizzonte di pochi anni.

“Negli Stati Uniti l’IA è anche meno regolamentata dei panini, e continua l’attività di lobbying contro standard di sicurezza vincolanti nei governi”, ha detto.

Tegmark ha poi osservato che, dall’altro lato, cresce un contraccolpo senza precedenti contro AGI e superintelligenza fuori controllo.

A ottobre, migliaia di figure pubbliche, tra cui leader dell’IA e della tecnologia, hanno chiesto alle aziende di IA di rallentare la corsa alla superintelligenza.

La petizione, organizzata da FLI, ha raccolto firme da tutto lo spettro politico, tra cui Steve Bannon (già capo stratega del presidente USA Donald Trump), Susan Rice (ex Consigliere per la Sicurezza Nazionale sotto l’amministrazione Obama), leader religiosi e molti altri ex politici, oltre a eminenti informatici.

“Che cosa hanno in comune queste persone? Hanno concordato su una dichiarazione. Trovo estremamente significativo che la base profonda MAGA di Trump, i leader religiosi, la sinistra e i movimenti dei lavoratori concordino su qualcosa”, ha detto Tegmark.

“La superintelligenza renderebbe ogni singolo lavoratore incapace di mantenersi, perché i robot si prenderebbero tutti i lavori. Le persone dipenderebbero da sussidi: a destra verrebbero visti come assistenzialismo, a sinistra come un governo da ‘1984’”, ha detto. “Credo che le tensioni stiano arrivando al pettine”.

Vai alle scorciatoie di accessibilità
Condividi Commenti

Notizie correlate

Mistral, campione europeo dell'IA, lancia nuovi modelli di frontiera più piccoli: cosa sapere

A Chernobyl, fungo destinato a Marte può schermare gli astronauti dalle radiazioni nello spazio

Francia, LeCun lascia Meta e fonda startup per la prossima rivoluzione dell’intelligenza artificiale