This content is not available in your region

Conoscere la futura politica dell'Unione in materia di intelligenza artificiale

Access to the comments Commenti
Di Euronews
AP Photo
AP Photo   -   Diritti d'autore  Virginia Mayo/Copyright 2020 The Associated Press. All rights reserved

Ottenere un consiglio su un film nella tua piattaforma di video on demand preferita, sbloccare il telefono col r**iconoscimento facciale, utilizzare il correttore automatico o chattare con un software chatbot: tutti questi sono esempi quotidiani dell'uso dell'intelligenza artificiale (AI)**.

Nonostante il suono futuristico, parliamo di qualcosa che i cittadini europei usano e con cui interagiscono quotidianamente.

Le opportunità possono essere infinite, ma anche i rischi sono in agguato.

"Il potenziale dell'utilizzo dell'AI in modo vantaggioso è enorme: meno inquinamento, migliori cure mediche, maggiori opportunità, migliore istruzione e più modi per consentire ai cittadini di impegnarsi nella loro società", afferma la vice presidente esecutiva della Commissione europea per un'Europa digitale, Margrethe Vestager.

Le possibilità possono essere estese a qualsiasi area della vita: "Anche per combattere il terrorismo e la criminalità e migliorare la sicurezza informatica", ribadisce Vestager in un dibattito alla Commissione speciale sull'intelligenza artificiale del Parlamento europeo.

Ed è qui che potrebbero iniziare a manifestarsi i rischi: questo è uno dei motivi per cui la Commissione europea è stato il primo organismo a proporne una regolamentazione a livello mondiale.

Ma prima di tutto, cos'è l'intelligenza artificiale e perché dovremmo preoccuparci?

L'intelligenza artificiale è una tecnologia che consente alle macchine di percepire, analizzare e apprendere dall'ambiente.

Grazie a tutte queste informazioni, si possono prevedere e prendere le proprie decisioni per raggiungere obiettivi specifici.

Esistono molte applicazioni per l'intelligenza artificiale: ad esempio, può essere utilizzata per scopi medici come identificare il rischio di contrarre l'Alzheimer, per l'agricoltura o per monitorare i dipendenti mentre lavorano da remoto.

Ma poiché l'intelligenza artificiale raccoglie enormi quantità di dati e utilizza informazioni che materializzano alcuni dei pregiudizi che la società già ha, ci sono molti rischi.

Ad esempio, può mettere in pericolo la privacy, mettere a rischio i diritti fondamentali o aumentare la discriminazione contro le minoranze.

Virginia Mayo/Copyright 2020 The Associated Press. All rights reserved
AP PhotoVirginia Mayo/Copyright 2020 The Associated Press. All rights reserved

Qual è l'attuale posizione dell'Ue sull'intelligenza artificiale?

"Più alto è il rischio che un uso specifico dell'AI può causare alle nostre vite, più severa è la regola": queste le parole usate da Vestager lo scorso aprile per definire la base della proposta della Commissione europea sull'Intelligenza Artificiale.

Il testo divide le diverse AI in quattro categorie in base al rischio che potrebbero rappresentare per i cittadini.

Nel rischio minimo vi sono quelle tecnologie che comportano un rischio nullo per i cittadini, che saranno liberi di utilizzarle senza applicazione di nuove regole (esempio, filtri antispam).

La categoria a rischio limitato avrà obblighi di trasparenza per far sapere ai cittadini che stanno interagendo con una macchina, e quindi consentire loro di prendere decisioni informate(esempio sono i chatbot).

L'alto rischio subentra quando potrebbero venir meno gli usi dell'intelligenza artificiale, come il riconoscimento facciale, le procedure legali e le applicazioni di smistamento dei curriculum.

È controverso se possa essere potenzialmente dannoso o avere implicazioni negative per i suoi utenti.

Pertanto, la Commissione prevede che tali sistemi saranno "valutati attentamente prima di essere immessi sul mercato e durante tutto il loro ciclo di vita".

Inaccettabile è l'ultima categoria: è qui che la Commissione europea ha tracciato la linea, tralasciando tutti quei sistemi di intelligenza artificiale che sono "una chiara minaccia alla sicurezza, ai mezzi di sussistenza e ai diritti delle persone".

Un esempio può essere il punteggio sociale da parte dei governi o l'utilizzo di tecniche subliminali.

Ma per Sarah Chander, senior policy advisor presso European Digital Rights (EDRi), la proposta della Commissione europea "corre il rischio di abilitare sistemi di sorveglianza davvero invasivi e discriminatori di AI, che invece dovrebbero essere banditi a titolo definitivo".

Alcuni dei suoi esempi includono tecnologie per smistare droni alle frontiere o applicazioni per valutare i benefici della sicurezza sociale.

Nel frattempo, di recente il Parlamento europeo ha votato contro la sorveglianza di massa in un rapporto non vincolante.

"Siamo chiaramente contrari alla Polizia predittiva basata sull'uso dell'intelligenza artificiale e a qualsiasi elaborazione di dati biometrici che porti alla sorveglianza di massa", ha affermato l'eurodeputato Petar Vitanov, responsabile del testo.

Il riconoscimento facciale sarà una realtà nell'Unione europea?

Il riconoscimento facciale per motivi di sicurezza è uno dei temi caldi quando si ha a che fare con la regolamentazione dell'AI.

Un recente studio commissionato dai Verdi al Parlamento europeo mostra che su 27 Stati membri, 11 utilizzano già l'intelligenza artificiale: Germania, Francia, Ungheria, Paesi Bassi o Finlandia sono alcuni degli esempi.

Per la Commissione c'è un elevato rischio, ma al Parlamento europeo le opinioni sono divise: mentre alcuni chiedono un divieto totale, altri preferiscono un approccio diverso.

"Chiediamo una moratoria sull'implementazione di sistemi di riconoscimento facciale per scopi di applicazione della legge, poiché la tecnologia si è dimostrata inefficace e spesso porta a risultati discriminatori", ha affermato Vitanov a metà ottobre.

In una recente conferenza stampa, l'eurodeputato Axel Voss, relatore di un altro testo sull'AI, ha tuttavia affermato che "anche per il riconoscimento facciale si possono impostare delle salvaguardie, affinché possa essere usato ma non abusato".

Il riconoscimento facciale non sarà escluso dalla normativa: Chander avverte che la regolamentazione degli scontri potrebbe non avvenire a livello europeo ma a livello nazionale. Mentre pensa che ministeri come l'Innovazione siano "molto positivi" nei confronti della "necessità di una maggiore regolamentazione basata sui diritti umani", la situazione non è la stessa per i ministeri dell'Interno.

Di solito, i responsabili della Polizia "tendono ad essere più scettici nei confronti dei divieti di riconoscimento facciale e di polizia predittiva".

È possibile evitare i rischi di riprodurre pregiudizi?

Con la sua proposta, l'obiettivo della Commissione europea è che i sistemi di intelligenza artificiale "non creino o riproducano pregiudizi".

Pertanto, i requisiti per i sistemi di AI ad alto rischio dovranno essere "robusti" per soddisfare le esigenze.

Ma Chander insiste sul fatto che molti sistemi di intelligenza artificiale "aumenteranno intrinsecamente la discriminazione a causa della natura stessa di come funziona".

Come ha affermato, utilizza "dati e informazioni del passato e cerca di applicarli al futuro": questo potrebbe riprodurre pregiudizi e discriminazioni che già esistono nella società.

E in relazione al danno che potrebbero causare, Chander dice che la Commissione ha trascurato un problema chiave: la mancanza di opportunità per i cittadini di lamentarsi.

Chiede che i cittadini potenzialmente interessati possano rivolgersi a un'autorità per assicurarsi che i loro diritti siano rispettati.

E per quanto riguarda la sovraregolamentazione o la sottoregolamentazione?

Dal desiderio di definire lo standard mondiale al rischio di un'eccessiva regolamentazione che interrompa l'opportunità per la tecnologia di andare avanti il passo è breve.

L'Unione europea sta affrontando una grande sfida con il regolamento dell'AI, Bruxelles si aspetta che stabilisca uno standard globale come è successo con il GDPR.

Per Vestager, i problemi potrebbero sorgere se l'Ue non fosse in grado di renderlo sicuro: "La mia preoccupazione è che rischiamo che la tecnologia non venga sviluppata e utilizzata il più ampiamente possibile, se non siamo bravi a mitigare i rischi ad essa connessi".

Allo stesso tempo, l'Unione dovrebbe trovare un equilibrio tra l'uso statale dell'AI da parte della Cina e l'approccio degli Stati Uniti con linee guida volontarie sviluppate insieme alle grandi aziende tecnologiche.