EventsEventiPodcast
Loader

Find Us

PUBBLICITÀ

Regole per l'intelligenza artificiale: pronta la proposta del Parlamento europeo

I sistemi di intelligenza artificiale possono presentare una serie di rischi per i cittadini
I sistemi di intelligenza artificiale possono presentare una serie di rischi per i cittadini Diritti d'autore Michael Dwyer/Copyright 2023 The AP. All rights reserved
Diritti d'autore Michael Dwyer/Copyright 2023 The AP. All rights reserved
Di Vincenzo Genovese
Condividi questo articoloCommenti
Condividi questo articoloClose Button
Copia e incolla il codice embed del video qui sotto:Copy to clipboardCopied

Approvata dalle commissioni parlamentari competenti la posizione dell'Eurocamera, che dovrà ora essere confermata dal voto dell'aula in seduta plenaria. Poi il negoziato con gli Stati membri, per una legislazione sull'Ai che sarebbe la prima al mondo

PUBBLICITÀ

L'Unione europea potrebbe essere il primo luogo al mondo con una precisa regolamentazione nell'utilizzo dell'intelligenza artificiale, in particolare sui delicati aspetti del riconoscimento facciale e degli algoritmi predittivi del comportamento. 

Le commissioni per il Mercato interno e per le Liberta civili del Parlamento europeo hanno approvato a larga maggioranza (84 voti a favore, 7 contro e 12 astensioni) una serie di emendamenti alla proposta della Commissione sul tema.

Divieti e restrizioni

La posizione adottata dal Parlamento segue un approccio basato sul livello di rischio dei differenti campi di applicazione dell'intelligenza artificiale.

Quando questo è considerato "inaccettabile", l'utilizzo di sistemi di Ia è vietato, come ad esempio nei sistemi di manipolazione comportamentale che sfruttano le debolezze degli individui o in quelli di "classificazione sociale", utilizzati per assegnare punteggi alle persone in base ai loro comportamenti o al loro status socio-economico. 

I divieti proposti dal Parlamento includono i sistemi di identificazione biometrica, sia in tempo reale che in differita, negli spazi pubblici, salvo quelli utilizzati nelle indagini per gravi crimini con l'autorizzazione delle autorità giudiziarie.

Ma anche gli algoritmi predittivi del comportamento, basati sulla profilazione degli individui, i sistemi di riconoscimento emotivo in contesti giudiziari, lavorativi, educativi o nei controlli alle frontiere: tutte situazioni in cui l'intelligenza artificiale potrebbe rischiare di fuorviare le decisioni. 

"Vogliamo che non accada più, ad esempio, che i curriculum delle donne e delle persone non bianche vengano scartati a priori in una selezione perché il sistema di intelligenza artificiale è stato allenato con dati che perpetuano le discriminazioni", dice Brando Benifei, eurodeputato del Partito democratico e relatore del file legislativo.

"Questo regolamento introdurrà tutele più severe sul modo in cui i governi e le aziende private utilizzano i sistemi di intelligenza artificiale"
Sarah Chander
European Digital Rights

Applicazioni a rischio

Gli eurodeputati vorrebbero anche allargare l'area delle applicazioni considerate "ad alto rischio", per includere i danni alla salute delle persone, alla sicurezza, ai diritti fondamentali e all'ambiente. Sistemi di intelligenza artificiale altamente rischiosi sono anche quelli tuilizzati per influenzare il voto nelle campagne politiche.

Uno degli obiettivi è la consapevolezza dei cittadini sui rischi connessi, come spiega a Euronews Sarah Chander, policy advisor di European Digital Rights, un network di esperti e organizzazioni senza scopo di lucro che promuove i diritti digitali dei cittadini europei.

"Questo regolamento introdurrà tutele più severe sul modo in cui i governi e le aziende private utilizzano questi sistemi. Prima di tutto sapremo di più su quando questi sistemi saranno in uso, in particolare negli interventi delle forze dell'ordine o nel controllo della migrazione: oggi spesso non lo sappiamo.

Regole per ChatGpt

Il testo adottato include requisiti di trasparenza per i nuovi chatbot, come ad esempio ChatGpt. Le aziende proprietarie dei software dovranno dichiarare quando un testo è generato dall'intelligenza artificiale, ma pure impedire l'uso di dati protetti da copyright o la diffusione di contenuti illegali.

La trasparenza, comunque, è il primo ma non l'unico problema da affrontare, secondo Sarah Chander.

"Quando parliamo di sviluppo di sistemi di intelligenza artificiale su larga scala non parliamo solo del pericolo di potenziali falle nel sistema. Stiamo anche parlando di enormi livelli di potenza dei computer, che hanno un impatto ambientale, di sfruttamento del lavoro delle persone, spesso nel Sud del mondo, e di diversi livelli di dominio economico da parte di grandi aziende".

La posizione del Parlamento dovrà ora essere confermata con una votazione prevista nella sessione plenaria di giugno dell'Eurocamera. Seguirà il negoziato con i 27 Stati membri, con l'obiettivo che il regolamento sull'Intelligenza artificiale diventi legge entro la fine dell'anno.

Condividi questo articoloCommenti

Notizie correlate

"Non fate figli: altrimenti li esporrete agli enormi rischi dell'Intelligenza Artificiale"

Elezioni europee: quanto spendono i partiti politici per gli annunci sui social media

Elezioni europee, Giorgia Meloni mostra i muscoli a rivali e alleati: Fratelli d'Italia al 27%