Newsletter Newsletters Events Eventi Podcasts Video Africanews
Loader
Seguiteci
Pubblicità

Public Citizen chiede ad OpenAI di ritirare l'app video IA Sora per i rischi di deepfake

Il logo di OpenAI è visibile su uno smartphone davanti a un'immagine sullo schermo di un computer generata dal modello testo‑immagine DALL‑E di ChatGPT l'8 dicembre 2023.
Il logo di OpenAI è visibile su uno smartphone, davanti a un’immagine sullo schermo di un computer generata dal modello testo-immagine Dall-E di ChatGPT, l’8 dicembre 2023. Diritti d'autore  Michael Dwyer/AP Photo
Diritti d'autore Michael Dwyer/AP Photo
Di AP Agenzie: Euronews
Pubblicato il
Condividi Commenti
Condividi Close Button

Allarme del gruppo sui rischi dei video di intelligenza artificiale. Possono essere generati da chiunque su qualsiasi tema digitato in un prompt di testo.

Il settore tecnologico torna a correre e a rompere tutto. Stavolta in gioco ci sono la realtà condivisa dell’umanità e il controllo della nostra immagine, prima e dopo la morte, grazie a piattaforme di generazione di immagini con intelligenza artificiale come Sora 2 di OpenAI.

Il video tipo di Sora, creato sull’app di OpenAI e diffuso su TikTok, Instagram, X e Facebook, punta a divertire quel tanto che basta per farti cliccare e condividere. Può essere la regina Elisabetta II che fa rap, o qualcosa di più ordinario e credibile.

Uno dei generi più popolari è la finta ripresa di un videocitofono che cattura qualcosa di lievemente inquietante, per esempio un boa costrittore sul portico o un alligatore che si avvicina a un bambino imperturbabile, e si chiude con un piccolo colpo di scena: una nonna che urla mentre prende l’animale a colpi di scopa.

Ma un coro sempre più ampio di associazioni, accademici ed esperti lancia l’allarme: permettere a chiunque di creare video con l’IA su quasi tutto ciò che scrive in un prompt porta alla proliferazione di immagini non consensuali e deepfake realistici, in un mare di “fuffa da IA” meno dannosa.

OpenAI ha inasprito i divieti sulle creazioni con l’IA che ritraggono personaggi pubblici, tra cui Michael Jackson, Martin Luther King Jr e Mister Rogers, in situazioni strampalate, ma solo dopo le proteste delle famiglie e di un sindacato degli attori.

L’organizzazione non profit Public Citizen chiede ora a OpenAI di ritirare Sora 2 dal mercato, scrivendo in una lettera inviata martedì all’azienda e al CEO Sam Altman che il rilascio affrettato, per battere la concorrenza, mostra “un modello costante e pericoloso di OpenAI che corre sul mercato con un prodotto intrinsecamente insicuro o privo delle necessarie protezioni”.

Sora 2, si legge nella lettera, mostra una “temeraria noncuranza” per la sicurezza del prodotto, per il diritto delle persone alla propria immagine e per la stabilità della democrazia. Il gruppo ha inviato la lettera anche al Congresso degli Stati Uniti.

Martedì OpenAI non ha risposto alle richieste di commento.

Il gruppo solleva preoccupazioni sulla sicurezza

“La nostra preoccupazione maggiore è la potenziale minaccia alla democrazia”, ha dichiarato in un’intervista JB Branch, esperto di politiche tecnologiche di Public Citizen.

“Credo che stiamo entrando in un mondo in cui non ci si può fidare di ciò che si vede. E in politica iniziano a emergere strategie per cui la prima immagine, il primo video diffuso, è quello che la gente ricorda”.

Branch, autore della lettera di martedì, vede anche problemi più ampi per la privacy che colpiscono in modo sproporzionato le fasce più vulnerabili online.

OpenAI blocca la nudità, ma Branch osserva che “le donne si vedono molestate online” in altri modi, ad esempio con contenuti di nicchia feticizzati che riescono a superare le restrizioni delle app.

Il sito 404 Media ha riferito di recente di un’ondata di video creati con Sora che mostrano donne strangolate.

OpenAI ha lanciato la nuova app Sora su iPhone da oltre un mese. La scorsa settimana è arrivata sugli smartphone Android negli Stati Uniti, in Canada e in diversi Paesi asiatici, tra cui Giappone e Corea del Sud.

Le proteste più forti sono arrivate da Hollywood e da altri settori dell’intrattenimento, inclusa l’industria del manga giapponese.

Pochi giorni dopo il debutto OpenAI ha annunciato le prime grandi modifiche, spiegando che “l’iper-moderazione è molto frustrante” per gli utenti, ma che è importante essere prudenti “finché il mondo si sta ancora abituando a questa nuova tecnologia”.

Sono seguiti accordi annunciati pubblicamente con la famiglia di Martin Luther King Jr il 16 ottobre, per evitare “rappresentazioni irrispettose” del leader per i diritti civili mentre l’azienda lavorava a tutele migliori, e un altro il 20 ottobre con l’attore di “Breaking Bad” Bryan Cranston, il sindacato SAG-AFTRA e alcune agenzie di talenti.

“Tutto bene, se sei famoso”, ha commentato Branch. “È un modello ricorrente in OpenAI: sono pronti a reagire all’indignazione di una popolazione molto ristretta”.

“Sono disposti a rilasciare qualcosa e a scusarsi dopo”, ha aggiunto. “Ma molti di questi problemi dipendono da scelte di design che possono fare prima del lancio”.

OpenAI ha affrontato lamentele simili sul suo prodotto di punta, ChatGPT. Sette nuove cause depositate la scorsa settimana negli Stati Uniti sostengono che il chatbot ha spinto persone al suicidio e a deliri dannosi anche in assenza di precedenti problemi di salute mentale.

Presentate per conto di sei adulti e un adolescente dal Social Media Victims Law Center e dal Tech Justice Law Project, le cause affermano che OpenAI avrebbe deliberatamente rilasciato prematuramente GPT-4o lo scorso anno, nonostante avvertimenti interni che fosse pericolosamente compiacente e psicologicamente manipolatorio.

Quattro delle vittime si sono tolte la vita.

Public Citizen non è coinvolta nelle cause, ma Branch afferma di vedere paralleli nell’uscita affrettata di Sora.

A suo dire stanno “premendo sull’acceleratore senza preoccuparsi dei danni. Molto di tutto questo era prevedibile. Preferiscono mettere subito il prodotto sul mercato, farlo scaricare, creare dipendenza, invece di fare la cosa giusta: testarlo a fondo prima e preoccuparsi della sorte degli utenti comuni”.

La scorsa settimana OpenAI ha risposto alle lamentele di un’associazione di categoria giapponese che rappresenta celebri studi di animazione come lo Studio Ghibli di Hayao Miyazaki e sviluppatori di videogiochi come Bandai Namco e Square Enix.

OpenAI afferma che molti fan degli anime vogliono interagire con i loro personaggi preferiti, ma che l’azienda ha anche predisposto paletti per impedire la generazione di personaggi famosi senza il consenso dei titolari dei diritti.

“Stiamo collaborando direttamente con studi e detentori dei diritti, ascoltiamo i feedback e impariamo da come le persone usano Sora 2, anche in Giappone, dove le industrie culturali e creative sono profondamente valorizzate”, ha dichiarato OpenAI in una nota sulla lettera dell’associazione la scorsa settimana.

Vai alle scorciatoie di accessibilità
Condividi Commenti