Le reazioni alla prima legge sull'intelligenza artificiale

Il logo OpenAI viene visualizzato su un telefono cellulare con un'immagine sullo schermo del computer generata dal modello Dall-E text-to-image di ChatGPT.
Il logo OpenAI viene visualizzato su un telefono cellulare con un'immagine sullo schermo del computer generata dal modello Dall-E text-to-image di ChatGPT. Diritti d'autore Michael Dwyer/AP Photo
Diritti d'autore Michael Dwyer/AP Photo
Di Pascale Davies
Condividi questo articoloCommenti
Condividi questo articoloClose Button
Questo articolo è stato pubblicato originariamente in inglese

Secondo alcuni esperti di tecnologia la legislazione "non guarda abbastanza lontano". Per altri potrebbe danneggiare le aziende con "vincoli aggiuntivi"

PUBBLICITÀ

L'Europa si affretta a emanare regole e avvertimenti alle aziende tecnologiche dopo il lancio di ChatGPT e questa settimana è fondamentale per la definizione delle regole dell'Unione sull'intelligenza artificiale (Ia).

Mercoledì il Parlamento europeo ha approvato la legge sull'intelligenza artificiale, che adotta un approccio basato sul rischio per garantire che le aziende rilascino prodotti conformi alla legge prima di renderli disponibili al pubblico.

Un giorno dopo, la Commissione europea ha chiesto a Bing, Facebook, Google Search, Instagram, Snapchat, TikTok, YouTube e X, nell'ambito di una normativa separata, di specificare in che modo stanno riducendo i rischi dell'Ia generativa.

Se l'Unione si preoccupa soprattutto per le allucinazioni dell'Ia (ossia quando i modelli commettono errori e inventano cose), la diffusione virale di deepfake e la manipolazione automatizzata dell'Ia (che potrebbe fuorviare gli elettori durante le elezioni), la comunità tecnologica è scettica riguardo alla legge.

Monopoli tecnologici

Sebbene a Bruxelles spetti il "vero merito" per aver legiferato per prima a livello globale, approvando una legge che attenua i numerosi rischi dell'intelligenza artificiale, ci sono diversi problemi, ha affermato Max von Thun, direttore per l'Europa dell'Open Markets Institute.

Ci sono "significative scappatoie per le autorità pubbliche" e "una regolamentazione relativamente debole dei modelli di base che pongono i danni maggiori", ha dichiarato a Euronews Next.

I modelli di fondazione sono modelli di apprendimento automatico che vengono addestrati sui dati e possono essere utilizzati per eseguire una serie di compiti, come ad esempio scrivere una poesia. ChatGPT è un modello di base.

Tuttavia, la preoccupazione maggiore di von Thun è rappresentata dai monopoli tecnologici.

"La legge non è in grado di affrontare la minaccia numero uno che l'Ia rappresenta attualmente: il suo ruolo nell'aumentare e consolidare l'estremo potere che poche aziende tecnologiche dominanti hanno già nelle nostre vite personali, nelle nostre economie e nelle nostre democrazie", ha dichiarato.

Allo stesso modo, ha affermato che la Commissione europea dovrebbe diffidare degli abusi monopolistici nell'ecosistema dell'intelligenza artificiale.

"L'Ue dovrebbe comprendere che l'entità dei rischi posti dall'Ia è inestricabilmente legata al potere delle aziende dominanti che sviluppano e diffondono queste tecnologie. Non si può affrontare con successo il primo se non si affronta il secondo", ha dichiarato von Thun.

La minaccia dei monopoli dell'Ia è stata sotto i riflettori il mese scorso, dopo che è emerso che la start-up francese Mistral Ai stava collaborando con Microsoft.

Per alcuni nell'Ue è stato uno choc, poiché la Francia aveva spinto per ottenere concessioni alla legge per le aziende open source come Mistral.

Arthur Mensch, cofondatore e amministratore delegato di Mistral Ai
Arthur Mensch, cofondatore e amministratore delegato di Mistral AiToby Melville/Pool Photo via AP, File

Un momento storico

Ma diverse start-up hanno accolto con favore la chiarezza che il nuovo regolamento porta con sé.

"L'adozione definitiva da parte del Parlamento europeo della legge è un momento storico e un sollievo", ha dichiarato Alex Combessie, cofondatore e amministratore delegato della società francese di Ia open source Giskard.

Sebbene la legge imponga ulteriori vincoli e regole agli sviluppatori di sistemi di Ia e modelli di fondazione ad alto rischio, considerati "rischi sistemici", siamo fiduciosi che questi controlli e bilanciamenti possano essere efficacemente implementati", ha dichiarato a Euronews Next.

"Questo momento storico apre la strada a un futuro in cui l'Ia sarà sfruttata in modo responsabile, promuovendo la fiducia e garantendo la sicurezza di tutti".

La normativa opera una distinzione dei rischi posti dai modelli di fondazione, che si basa sulla potenza di calcolo che li addestra. I prodotti di Ia che superano la soglia di potenza di calcolo sono regolamentati in modo più rigoroso.

PUBBLICITÀ

La classificazione è considerata un punto di partenza e, come altre definizioni, può essere rivista dalla Commissione.

Un bene pubblico

Ma non tutti sono d'accordo con la classificazione.

"Dal mio punto di vista, i sistemi di intelligenza artificiale utilizzati nello spazio dell'informazione dovrebbero essere classificati come ad alto rischio, richiedendo il rispetto di regole più severe, cosa che non è esplicitamente prevista nella legge europea adottata", ha dichiarato Katharina Zügel, responsabile delle politiche del Forum sull'informazione e la democrazia.

"La Commissione, che ha la possibilità di modificare i casi d'uso dei sistemi ad alto rischio, potrebbe menzionare esplicitamente i sistemi di Ia impiegati nello spazio dell'informazione come ad alto rischio, tenendo conto del loro impatto sui diritti fondamentali", ha dichiarato a Euronews Next.

"Le aziende private non possono essere le uniche a guidare il nostro futuro comune. L'Ia deve essere un bene pubblico", ha aggiunto.

PUBBLICITÀ

Ma altri sostengono che anche le imprese devono poter dire la loro e collaborare con l'Unione europea.

"È fondamentale che l'Unione sfrutti il dinamismo del settore privato, che sarà la forza trainante del futuro dell'Ia. È importante che l'Europa diventi più competitiva e attraente per gli investitori", ha dichiarato Julie Linn Teigland, Managing Partner di EY per l'Europa, il Medio Oriente, l'India e l'Africa (Emeia).

È fondamentale che l'Unione sfrutti il dinamismo del settore privato, che sarà la forza trainante del futuro dell'Ia. È importante che l'Europa diventi più competitiva e attraente per gli investitori.
Julie Linn Teigland
EY’s EMEIA Area Managing Partner

Tuttavia, ha affermato che le imprese dell'Unione e non solo devono essere proattive e prepararsi all'entrata in vigore della legge, il che significa "prendere provvedimenti per garantire di avere un inventario aggiornato dei sistemi di Ia che stanno sviluppando o implementando e determinare la loro posizione nella catena del valore dell'Ia per comprendere le loro responsabilità legali".

Un sapore agrodolce

Per le start-up e le piccole e medie imprese, questo potrebbe significare molto lavoro in più.

"Questa decisione ha un sapore agrodolce", ha dichiarato Marianne Tordeux Bitker, responsabile degli affari pubblici di France Digitale.

PUBBLICITÀ

"Se da un lato la legge sull'intelligenza artificiale risponde a una sfida importante in termini di trasparenza ed etica, dall'altro crea obblighi sostanziali per tutte le aziende che utilizzano o sviluppano l'intelligenza artificiale, nonostante alcuni aggiustamenti previsti per le startup e le Pmi, in particolare attraverso sandbox normative".

"Temiamo che il testo crei semplicemente ulteriori barriere normative che favoriranno la concorrenza americana e cinese, riducendo le opportunità di emergere per i campioni europei dell'intelligenza artificiale", ha aggiunto.

Il logo OpenAI viene visualizzato su un telefono cellulare con un'immagine sul monitor di un computer generata dal modello Dall-E text-to-image di ChatGPT
Il logo OpenAI viene visualizzato su un telefono cellulare con un'immagine sul monitor di un computer generata dal modello Dall-E text-to-image di ChatGPTAP Photo/Michael Dwyer, File

Un'attuazione efficace

Ma anche se la legge sull'Ia è ormai un fatto acquisito, la sua attuazione è la prossima sfida.

"Ora l'attenzione si sposta sulla sua effettiva attuazione e applicazione. Ciò richiede anche una rinnovata attenzione alla legislazione complementare", ha dichiarato a Euronews Next Risto Uuk, responsabile della ricerca sull'Ue presso l'istituto no-profit Future of Life.

Tale legislazione complementare comprende la direttiva sulla responsabilità per l'intelligenza artificiale, destinata ad assistere le richieste di risarcimento per i danni causati da prodotti e servizi abilitati all'intelligenza artificiale, e l'Ufficio dell'Ue per l'intelligenza artificiale, che mira a semplificare l'applicazione delle norme.

PUBBLICITÀ

"Per garantire che la legge valga la carta su cui è scritta, è fondamentale che l'Ufficio per l'Ia disponga delle risorse necessarie per svolgere i compiti che gli sono stati assegnati e che i codici di condotta per l'Ia di uso generale siano ben redatti con il coinvolgimento della società civile", ha dichiarato.

Condividi questo articoloCommenti

Notizie correlate

Intelligenza artificiale: il Parlamento Ue approva il testo finale dell'AI Act

Il nuovo patto Ue per la migrazione "inaugurerà un'era mortale di sorveglianza digitale"

Forse una svolta per Assange: Biden apre alla possibilità di far cadere le accuse