Anche l'intelligenza artificiale ha un problema di disuguaglianza di genere

Anche l'intelligenza artificiale ha un problema di disuguaglianza di genere
Diritti d'autore Una modella fa una dimostrazione della tecnologia Alibaba FashionAI, in collaborazione con GUESS. Hong Kong, 3 luglio 2018
Diritti d'autore Una modella fa una dimostrazione della tecnologia Alibaba FashionAI, in collaborazione con GUESS. Hong Kong, 3 luglio 2018
Di Lillo Montalto Monella
Condividi questo articoloCommenti
Condividi questo articoloClose Button

Lo dice Rita Cucchiara, direttrice del nuovo laboratorio dedicato all'IA del Consorzio interuniversitario nazionale per l’informatica. Ma non solo lei

PUBBLICITÀ

La disuguaglianza di genere è un problema che non riguarda solo il mondo degli umani ma anche quello dell'intelligenza artificiale (IA), di riflesso. 

IA: divario di genere su due livelli

Da un lato c'è penuria di tecnologi, scienziati e ricercatori di sesso femminile in ambito informatico; dall'altro, bisogna considerare che i modelli di calcolo e apprendimento delle macchine sono creati quasi esclusivamente da uomini. 

"Se i dati vengono sempre selezionati o forniti da ricercatori di sesso maschile, naturalmente il comportamento sarà quello tipico dell'uomo", dice a euronewsRita Cucchiara, dell’Università degli Studi di Modena e Reggio Emilia.

Cucchiara è neo direttrice dell’AIIS, il nuovo laboratorio dedicato all’Intelligenza Artificiale del Consorzio interuniversitario nazionale per l’informatica (CINI) che ha raccolto l’adesione di 40 università, centri di ricerca (CNR, IIT e Fondazione Bruno Kessler) e 600 studiosi. 

Il pregiudizio (razziale o di genere) diventa un problema quando l'intelligenza artificiale viene utilizzata per scremare curriculum, concedere un mutuo, valutare esami o nel campo delle diagnosi mediche. "Usando i dati dei clienti respinti e associandoli ad una serie di regole si potrebbe giungere a distorsioni come questa: "Se il cliente è una donna ed è single, allora la domanda non viene accettata", scrive il sito The Conversation.

Tre delle più applicazioni dell'intelligenza artificiale dalla crescita più rapida - l'industria dei sexbot, quella delle armi autonome e degli assistenti virtuali vocali - manifestano evidenti  stereotipi di una cultura patriarcale, puntualizza il World Economic Forum.

Qualche esempio di discriminazione nel mondo dell'intelligenza artificiale

"Ogni volta che si dispone di un set di dati che si basano su decisioni umane, esso include del pregiudizio", sostiene Roman Yampolskiy, direttore del Cybersecurity Lab presso l'Università di Louisville. 

  • Uno studio dell'Università della Virginia ha preso in esame la tendenza di software di riconoscimento fotografico ad associare immagini di persone ai fornelli con il sesso femminile;

  • Dei ricercatori hanno scoperto come i servizi di riconoscimento facciale di Microsoft e IBM fossero più accurati con persone dalla carnagione chiara rispetto a afroamericani;  

  • Ricordate il gioco Pokémon Go? Diversi utenti di alcune città statunitensi hanno notato che c'erano meno centri Pokémon "per fare rifornimento" nei quartieri a maggioranza afroamerica: questo perché i creatori del gioco vi trascorrevano meno tempo;  

  • Uno dei casi più celebri ha toccato Google Photos: l'azienda ha dovuto mettere mano all'algoritmo che associava immagini di afroamericani al concetto di "gorilla"; 

  • Non è una coincidenza che gli assistenti virtuali come Siri o Amazon Alexa - piattaforme progettate per scimmiottare un atteggiamento servile e di asservimento - abbiano voci e modi femminili: questo rinforza uno stereotipo di genere;  

  • Uno studio citato dal Guardian dimostra come uno stesso curriculum, analizzato dall'IA, abbia avuto il 50% di probabilità in più di ottenere un colloquio di lavoro quando il candidato aveva un nome "euro-americano" rispetto ad uno "afro-americano";

 

Un problema di educazione (non solo universitaria)

Il valore aggiunto di una maggiore presenza femminile negli ambiti delle professioni, della ricerca e degli STEM (Science, Technology, Engineering, Maths) non è solo misurabile, ma "anche sentimentale", ritiene la professoressa Cucchiara. 

Luigia Tauro di Women&Tech dice ad AGI che per innovare "abbiamo bisogno di conoscenze intersettoriali, creatività, emozioni, fiducia dei rapporti umani per attivare progettazioni agili e leadership condivisa. È quindi fondamentale riconoscere l’importanza delle competenze deboli (in inglese soft skill) molte delle quali sono connaturate nelle donne: elasticità mentale e pensiero laterale, proattività, resilienza, critical thinking, intelligenza emotiva, intelligenza sociale, autoconsapevolezza"

In Italia, scrive Repubblica, le studentesse iscritte alle lauree magistrali in Ingegneria meccanica ed elettronica sono appena il dieci per cento del totale. Poco meglio va a Ingegneria informatica (14,6 per cento) e dell'automazione (13,3 per cento). Al Politecnico si toccano minimi ancora più bassi, con il 7 per cento a Meccanica, Automatica, Elettrica e il 9 per cento a Informatica ed Elettronica. Un po' più confortanti i dati locali e nazionali se si va a vedere Biomedica (57,4 di donne), Edile (43,2 per cento), Chimica (41,2 per cento) e Ingegneria per l'ambiente (40,4 per cento). Ma in generale, se si osservano i numeri delle lauree triennali, la media parla di una sola studentessa ogni cinque iscritti. 

"Il problema culturale parte dalle famiglie: fin dalle elementari, per esempio, si insegna che è giusto che le donne facciano medicina piuttosto che informatica”, conclude la professoressa Cucchiara. "Ci vuole una maggiore educazione - non solo a livello di sviluppo, ma anche nel modo di fare ricerca. Importante è non solo chi scrive il codice ma anche chi sviluppa i modelli". 

Europa: il futuro dell'intelligenza artificiale passa dall'etica

La Commissione Europea presenterà, in accordo con gli Stati membri, una strategia continentale unica entro la fine del 2018. Visto l'impatto sulla vita delle persone degli investimenti nel settore, un gruppo di esperti - High-Level Expert Group on Artificial Intelligence - guiderà i lavori della European AI Alliance anche in tema di etica e privacy. Verranno proposte linee guida in fatto di "parità, sicurezza, trasparenza, futuro dei lavoratori e della democrazia", senza dimenticare "data protection, dignità, protezione dei consumatori e discriminazioni".

Il nuovo laboratorio dedicato all’Intelligenza Artificiale del Consorzio interuniversitario nazionale per l’informatica (CINI), presideduto dalla professoressa Cucchiara, inizierà a operare a pieno ritmo dal prossimo settembre e forte sarà l'attenzione "agli aspetti etici, di gender e di privacy".

Nel mondo ci sono iniziative come WomenandTech, programmi come Technovationchallenge per offrire alle donne l'opportunità di apprendere le necessarie competenze per diventare "imprenditrici e leader nel campo della tecnologia" oppure Ai4All, una no profit che fa progetti didattici per donne e minoranze sotto-rappresentate nel campo dell'AI, in collaborazione con Stanford, Princeton e Berkeley.

Alcuni materiali educativi per bambini vengono modificati per mostrare un mondo idealizzato in cui uomini e donne lavorano similmente come muratori o manager.

In attesa di vedere miglioramenti a livello culturale ed educativo, questo approccio potrebbe rivelarsi utile anche nel mondo delle macchine, per "insegnare" loro a non avere pregiudizi di genere - almeno secondo Eric Horvitz, direttore di Microsoft Research.

Condividi questo articoloCommenti

Notizie correlate

"Xavier", arriva il robot-poliziotto: sempre più controllo tecnologico a Singapore

Verso un'intelligenza artificiale made in UE

Droni-killer volanti, la distopia è più reale di quanto pensiamo