L'Unione europea vuole mettere le mani sull'Intelligenza artificiale

L'AI Act a cui lavorano le istituzioni europee
L'AI Act a cui lavorano le istituzioni europee Diritti d'autore Lyon
Diritti d'autore Lyon
Di Sophia Khatsenkova
Condividi questo articoloCommenti
Condividi questo articoloClose Button
Copia e incolla il codice embed del video qui sotto:Copy to clipboardCopied

Proposti quattro livelli di rischio per i sistemi dell'IA. Bruxelles si trova schiacciata tra il pericolo di restringere troppo il campo di applicazione e bloccare l'innovazione

PUBBLICITÀ

L'intelligenza artificiale (AI) affascina per la capacità delle macchine di produrre creazioni sempre più complesse, ma solleva anchetimori per il suo uso nella disinformazione e nella manipolazione dell'opinione pubblica.

Le istituzioni dell'Unione europea sono impegnate per creare norme utili a regolamentare questo campo e giovedì scorso i deputati delle commissioni del Parlamento europeo che si occupano di Mercato interno e Libertà civili hanno dato luce verde alla legge sull'Intelligenza artificiale proposta dalla Commissione europea (il cosiddetto "AI Act"). 

L'obiettivo è di sottoporre il testo alla plenaria del Parlamento europeo entro giugno affinché possa essere definitivamente adottato entro la fine dell'anno.

La legge propone di classificare i sistemi di Intelligenza artificiale in base a quattro livelli di rischio: da minimo a inaccettabile. Saranno considerati "di livello inaccettabile", e quindi vietati, soluzioni come il sistema di credito sociale utilizzati in Cina, che categorizza la reputazione dei cittadini in una distinzione molto simile a quella tra "buoni" e "cattivi".

Altri usi inaccettabili sono l'identificazione biometrica in tempo reale negli spazi pubblici, dove l'IA scansiona il volto di una persona e lo identifica automaticamente.

Anche i sistemi di intelligenza artificiale utilizzati in categorie ad alto rischio come l'occupazione e l'istruzione, ambiti che riguardano strettamente la vita di una persona, saranno soggetti a requisiti severi.

Le violazioni delle regole per le aziende comporteranno multe fino al 6% del fatturato globale annuo di un'azienda.

Secondo Yohan Laux dell'Oxford Internet Institute, i legislatori dovranno guardarsi bene dal non restringere troppo il campo di applicazione della definizione di "IA" da un lato, ma anche dal non ampliarla eccessivamente soffocando così la ricerca e l'innovazione. La questione di cosa rientra nella definizione di Intelligenza artificiale è molto controversa nell'intero processo di stesura della legge.

Davanti a una tecnologia che si evolve in continuazione il timore è che le nuove regole possano presto perdere di efficacia. Il correlatore del testo al Parlamento europeo, Dragoș Tudorache, insiste sulla necessità di definire una base di valori stabile per regolamentare il rapporto che aziende, amministrazioni pubbliche e cittadini devono avere con l'Intelligenza artificiale nell'Unione europea.

L'approvazione finale del regolamento è prevista per la fine del 2023, e sarà seguita da un periodo di grazia per le aziende che potranno adattarsi.

Condividi questo articoloCommenti

Notizie correlate

Il nuovo patto Ue per la migrazione "inaugurerà un'era mortale di sorveglianza digitale"

Forse una svolta per Assange: Biden apre alla possibilità di far cadere le accuse

Cos'è il passaporto digitale dei prodotti dell'Ue?