I miei assistenti vocali sono tutti transgender: la prima cosa che faccio quando ho un nuovo dispositivo è andare a cercare la "voce" dell'assistente nelle impostazioni e, quando è possibile, la cambio da femminile a maschile.
Le cattive notizie sono due: la prima è che questa operazione è sempre necessaria, la seconda è che, alla data di redazione di questo articolo, qualche volta, per esempio con Alexa, non è neanche eseguibile. L'assistente vocale, come la segretaria degli anni 60, per intenderci, quella con la gonna aderente, il reggiseno a punta e gli occhiali da gatta, di default, è di sesso femminile.
La buona notizia è che qualcosa si sta muovendo anche in Italia, seppure non senza polemiche, ha suscitato infatti scalpore (e in alcuni rammarico) la notizia che la voce "storica" di Vodafone, ovviamente femminile, è andata "in pensione" a ottobre 2020, ed è stata sostituita da una voce maschile, robotica. Probabilmente, quanto stiamo scrivendo in questo articolo non è estraneo alla scelta.
Dato che l'apprendimento automatico e implicito è tipico e pervasivo nella società, questo vuol dire che stiamo subendo, tramandando e rinforzando un pregiudizio di genere?
Alla domanda se l'intelligenza artificiale (IA) abbia un problema di genere, Ivana Bartoletti, fondatrice della rete Women Leading in AI, non ha dubbi: "Un algoritmo è un'opinione espressa in codice", dice. "Se sono soprattutto gli uomini a sviluppare l'algoritmo, allora ovviamente i risultati saranno di parte...Stai insegnando alla macchina come prendere una decisione".
La prevalenza di macchine femminilizzate, come Alexa, Google Home e Siri - che hanno tutte voci femminili di default, anche se per alcune di loro c’è la possibilità di passare a una voce maschile - ha allarmato alcuni osservatori che stanno assistendo all'evoluzione del settore. Un professore di sociologia della University of Southern California lo ha recentemente descritto come "un potente strumento di socializzazione che insegna il ruolo delle donne, delle ragazze e delle persone di genere femminile come quello di rispondere su richiesta". Questi assistenti virtuali, sono chiamati a svolgere compiti elementari, a differenza, invece, del computer IBM Watson, utilizzato per giocare al quiz americano Jeopardy e prendere decisioni aziendali complesse, che "stranamente", ha una voce maschile.
Alan Winfield, co-fondatore del Bristol Robotics Laboratory dell'Università dell'Ovest dell'Inghilterra, Bristol, considera il "problema di genere" dell'IA come "uno dei due principali problemi etici della robotica e dell'IA" (l'altro è la disuguaglianza nella ricchezza). Winfield è stato uno degli autori dei principi della robotica, pubblicati dal Consiglio di Ricerca di Ingegneria e Scienze Fisiche nel 2010. Una delle cinque regole stabilisce che i robot non devono essere progettati per ingannare: "Che ci piaccia o no, tutti noi reagiamo agli spunti di genere", ha spiegato in un post del blog sull'argomento. "Quindi, che sia stato deliberatamente progettato per farlo o meno, un robot di genere provoca reazioni che un robot non di genere non provoca".
Questa convinzione che i robot non abbiano bisogno di essere sessuati, che alcuni sostengono sia una sorta di inganno in sé, ha portato Kriti Sharma, vice presidente di AI ed etica presso la società di software Sage, a proporre un assistente robot neutro dal punto di vista del genere, di nome Pegg, che "non finge di essere umano", dice. Come donna che lavora nell'AI, è delusa e frustrata dal fatto che il pregiudizio di genere sia ancora un problema di questo tipo nel settore. "C'è una sorta di fascino nell'industria tecnologica che vogliamo creare un'intelligenza artificiale che sia il più possibile simile all'uomo", aggiunge, "Ma l'intelligenza artificiale impara da serie di dati storici, e quindi può imparare molti pregiudizi". Non solo pregiudizi di genere, ma anche razzismo, sessismo e altre opinioni... Non possiamo permettere che la tecnologia crei più divisioni nella società e più disuguaglianze di quante ne abbiamo già".
Una ricerca di PwC stima che l'AI contribuirà all'economia globale per 15,7tn dollari entro il 2030 attraverso una moltitudine di industrie. Poiché l'apprendimento automatico è sempre più incorporato nei processi decisionali, è imperativo affrontare questi pregiudizi ed evitare di rinforzarli, seppure indirettamente.
"Dobbiamo anche continuare a promuovere una cultura dell'inclusione e della diversità sul posto di lavoro e fare in modo che nella progettazione e nel monitoraggio di queste soluzioni siano integrati diversi punti di vista", afferma Maria Axente, responsabile del programma di AI in PwC. E aggiunge: “Molti ignorano che se la maggior parte degli ingegneri di machine learning sono ora uomini, la programmazione dei computer è stata storicamente il regno delle donne”.
Durante la seconda guerra mondiale, il 75% dei decifratori di codici che lavoravano a Bletchley Park, erano donne (inizialmente perché gli uomini erano impegnati nella guerra). Ma nei decenni successivi, la programmazione si è spostata da un "compito di basso livello, femminilizzato", a un lavoro che era visto come centrale per il controllo delle risorse aziendali e statali. "Le donne sono state tagliate fuori", dice.
Anche Winfield e gli altri del Bristol Robotics Lab vogliono migliorare questo aspetto. 20 anni fa non c'erano donne che lavoravano nel laboratorio; oggi, secondo le loro stime, fino al 40% del team è costituito da donne. Questo ha avuto un grande impatto. "I diversi valori, le prospettive e il contributo delle donne nel laboratorio hanno indubbiamente arricchito e migliorato il lavoro", dice.
C'è l'aspettativa che l'intelligenza artificiale e l'apprendimento automatico possano aiutare a ridurre i pregiudizi in situazioni come la selezione del personale, per esempio, ma ci sono ancora oggi, una moltitudine di esempi in cui questo non avviene. Ricercatori del MIT e di Stanford negli Stati Uniti hanno recentemente sperimentato tre programmi di analisi facciale e hanno scoperto che il software è in grado di riconoscere i maschi bianchi ma non le femmine, soprattutto se hanno una carnagione più scura. Allo stesso modo, è stato scoperto che gli algoritmi di Google News associano automaticamente alcune parole con il genere femminile (come "infermiera").
Dunque in attesa che arrivino Sirio e Alexo o, per lo meno, come ai bei tempi andati, il sesso del nascituro non si sappia prima del momento in cui viene alla luce, continuerò ad avere AI transgender.
In futuro speriamo che sia (anche) maschio…
Potrebbe interessarti anche...