I gruppi della società civile lanciano l'allarme in vista dell'entrata in vigore, il 2 febbraio, delle disposizioni della legge europea sull'intelligenza artificiale relative ai sistemi di Ai vietati. Commissione Ue non ha ancora pubblicato le linee guida
Il 2 febbraio si avvicina e aziende e gruppi della società civile sono preoccupati per la mancanza di linee guida della Commissione europea sui sistemi di intelligenza artificiale vietati, in quella data infatti è prevista l'entrata in vigore delle disposizioni della legge sull'Ai che riguardano questi servizi.
Le aziende europee avranno tempo fino alla metà del 2024 per adeguarsi alla maggior parte delle disposizioni previste dall'Ai Act, ma i divieti relativi ai sistemi di intelligenza artificiale considerati pericolosi entreranno in vigore già il 2 febbraio. Questi includono strumenti come il social scoring (un sistema che valuta e classifica le persone sulla base dei loro comportamenti, attività o dati personali, attribuendo loro un punteggio sociale), il profiling e il riconoscimento facciale, che sollevano preoccupazioni etiche e sociali.
L’Ufficio Ai della Commissione europea ha dichiarato che le linee guida necessarie per aiutare i fornitori a conformarsi saranno disponibili solo all’inizio del 2025, a seguito di una consultazione avviata lo scorso novembre. Tuttavia, un portavoce della Commissione ha rassicurato che l’obiettivo è pubblicare i documenti interpretativi entro il 2 febbraio.
Secondo Ella Jakubowska, rappresentate dell'organizzazione di difesa dei diritti digitali (Edri), la situazione è allarmante: “È davvero preoccupante che le linee guida interpretative non siano ancora state pubblicate. Ci auguriamo che questo non sia un preavviso di come la legge sull’Ai verrà applicata in futuro”.
I rischi di profilazione quando si deroga all'Ai Act
La legge sull’Ai vieta i sistemi ritenuti dannosi per la società, ma prevede alcune eccezioni in situazioni di interesse pubblico, come l’applicazione della legge. Caterina Rodelli, analista delle politiche Ue presso l'organizzazione Access Now, ha espresso dubbi su tali deroghe, affermando che spesso favoriscono le autorità piuttosto che tutelare i cittadini: "Le eccezioni consentono l’uso di sistemi inaffidabili e pericolosi, come macchine della verità, o strumenti di profilazione nelle procedure migratorie".
Anche Jakubowska condivide questa preoccupazione, temendo che tali deroghe possano essere utilizzate per giustificare lo sviluppo di sistemi di Ai potenzialmente dannosi. Durante le negoziazioni della legge, il tema ha generato intense discussioni, con i legislatori che chiedevano un divieto rigoroso per il riconoscimento facciale.
Regolatori nazionali e portata extraterritoriale
L’Ai Act avrà una portata extraterritoriale, coinvolgendo anche aziende al di fuori dell’Ue che operano sul mercato europeo. Le imprese che violano le regole rischiano multe fino al 7% del fatturato annuo globale.
Nel frattempo, gli Stati membri hanno tempo fino ad agosto di quest'anno per istituire le proprie autorità di regolamentazione nazionali che avranno il compito di supervisionare l'Ai Act.
Alcuni Paesi hanno già avviato le fasi preparatorie e hanno incaricato della supervisione gli organismi di protezione dei dati o delle telecomunicazioni.
"Sembra che ci sia un po' di confusione, e in molti Paesi non si sa nulla né delle autorità di sorveglianza del mercato né degli organismi notificati che supervisioneranno le norme a livello nazionale", conclude l'esperta Jakubowska.