Un altro genere di politica

Se (anche) l’intelligenza artificiale discrimina

di Isabella Sitar

Durante il Martin Luther King Day, Alexandria Ocasio Cortez, neo deputata eletta a New York a 29 anni, affermava: “le tecnologie portano con sé iniquità razziali perché gli algoritmi sono pur sempre fatti da uomini”. Contro di lei si sono scagliati repubblicani e conservatori, quella parte della politica che sostiene che il problema del razzismo e delle discriminazioni siano una “invenzione”; in realtà i fatti più recenti dimostrano che non è affatto così.

L’uccisione di George Floyd da parte della polizia e le mobilitazioni del movimento Black Lives Matter negli Stati Uniti, hanno avuto grande eco in tutto il mondo.
Da un angolo all’altro del pianeta decine di migliaia di persone sono scese in piazza, sfidando il distanziamento sociale contro il coronavirus.
Se è vero che la storia si ripete, sembra di rivivere quello che è successo negli anni ’60 del secolo scorso negli Stati Uniti con la differenza che oggi c’è una presenza massiccia di telecamere e cellulari che permettono una diffusione virale dei video attraverso i social media.

Ma che cosa c’entra il movimento Black Lives Matter con l’Italia?
Gli Stati Uniti sono oggi la prima potenza mondiale e quello che succede in quel paese influisce sul mondo intero, come accade dagli anni ’60.
In quegli anni i movimenti per i diritti civili degli afroamericani sono stati fondamentali per avviare le lotte che estendono i diritti civili alle minoranze: i diritti delle donne, degli omosessuali, degli immigrati e dei disabili. Dalla resistenza degli afroamericani sono state emanate leggi che hanno modificato la società moderna recuperando per tutti i cittadini comprese le minoranze quei valori di uguaglianza e libertà che ha introdotto la rivoluzione francese.

Il Black Lives Matter oggi apre una nuova stagione di lotte dove si contestano il razzismo e in generale ogni forma di discriminazione.
La discriminazione, però, non riguarda solo il mondo degli umani ma di riflesso anche quello dell’intelligenza artificiale che non solo copia i comportamenti e gli stereotipi di una società, ma li rende anche difficilmente modificabili.
Nell’intelligenza artificiale la discriminazione avviene attraverso i modelli di apprendimento degli algoritmi che si basano su dati che sono creati quasi esclusivamente da ricercatori bianchi e di sesso maschile dai quali le macchine acquisiscono I pregiudizi, consapevoli o inconsapevoli, che attivano le discriminazioni.

È noto, ad esempio, che negli Stati Uniti gli eventi di criminalità attribuiti ad afroamericani sono in media più numerosi rispetto a quelli attribuiti ai bianchi, a parità di circostanze. Questa sovra-attribuzione si riflette sui dati utilizzati nell’IA e comporta che venga negata la libertà vigilata molto più facilmente agli afroamericani, e suggerisce più facilmente l’invio di forze di polizia nei quartieri ad alta densità afroamericana.

Famoso è il caso del software di Amazon per il riconoscimento facciale che è stato venduto in tutto il mondo. La Aclu (American Civil Liberties) ha testato il programma e ha pubblicato gli esiti dell’esperimento. Utilizzando un archivio di 25 mila foto segnaletiche archiviate nei database della polizia e mettendole a confronto con le foto di 535 parlamentari statunitensi, il software ha confuso 28 parlamentari con i criminali. Nel 39% dei casi, i parlamentari scambiati per criminali erano afroamericani, ma considerando che questi rappresentano solo il 20% del Congresso ne consegue che un afroamericano ha circa il doppio delle possibilità di essere scambiato per un criminale.

Ma la discriminazione non è solo di tipo razziale, riguarda anche il genere.
Non è una coincidenza che gli assistenti vocali come Siri, Alexa e lo stesso navigatore delle macchine, abbiano una voce femminile: le voci femminili incarnano l’assistenza, l’aiuto, l’accoglienza e la benevolenza. Tutte caratteristiche che la società comunemente associa all’interpretazione del ruolo materno della donna, rafforzandone lo stereotipo.
I ricercatori hanno evidenziato che l’IA diventa un problema anche quando viene utilizzata per scremare curricula nei processi di selezione.

Sempre Amazon ha sviluppato un software per individuare i migliori talenti in campo tecnologico. Il problema è stato che il sistema faceva riferimento ai curricula sottoposti all’azienda nell’arco di dieci anni e la maggior parte proveniva da uomini. E così il sistema, creato dagli specialisti di apprendimento automatico, aveva insegnato a se stesso che era meglio assumere candidati uomini, discriminando le donne. Nel 2015 l’azienda si era accorta che i programmi presentavano disparità di genere e ha cercato di risolvere il problema; ma rimanendo alto il rischio di altre discriminanti, l’azienda ha deciso nel 2017 di chiudere il progetto.

In conclusione, se è vero che stiamo assistendo ad un rapido progresso tecnologico e siamo di fatto entrati in quello che viene definito Nuovo Umanesimo Digitale, è necessario che tale progresso si allinei con quello umano. È necessario un Black Lives Matter per il digitale in cui chiedere alla comunità europea di introdurre un riferimento esplicito alla non discriminazione in ogni regolamentazione che riguarda il digitale e che garantisca quei diritti di uguaglianza per cui il mondo intero oggi manifesta.

Condividi su