La Intel·ligència Artificial és masclista

5 setembre 2019

Temps de lectura 7 minuts

La recent proposta del PSOE de fer gratuïta per les dones la primera matrícula de les carreres científico-tècniques (STEM), dins el marc d’un ‘Programa Comú Progressista’ per un hipotètic govern d’esquerres, va generar ahir un encès debat a les xarxes socials. L’objectiu  de la proposta el deixaven clar: “tancar la bretxa de gènere en aquests estudis”. 

La portaveu d’Educació de Ciutadans, però, va carregar contra la proposta. Marta Martín va respondre per Twitter que “”no somos tontitas las mujeres, que a lo mejor los tontitos e ignorantes son los que hacen medidas como estas profundamente regresivas y patriarcales”. La química Deborah García Bello s’apuntava a la tesi qualificant d’”insulto” la proposta i generant un fil on una bona representació de la comunitat de tuitaires va voler dir la seva. 

Alguns opinaven que el problema no existeix, altres preguntaven si algú pagaría el primer any de magisteri infantil pels homes, molts s’apuntaven a la idea de “la diferència d’interessos” entre homes i dones -mentre d’altres rebatien que és pura construcció social- i, també, existia l’opinió contrària: les dones no s’apunten a les carreres STEM per manca de referents, hi ha problemes de conciliació, manca de confiança de les dones, el desequilibri és degut a inputs culturals…

Sense entrar a valorar la proposta concreta del PSOE, el fet és que hi ha menys dones dedicades a carreres STEM. La Bretxa Digital de gènere és un fet que preocupa arreu del món. Una de les conseqüències més preocupants és que està afavorint que la visió de les dones no tingui presència en tecnologies que cada cop són més rellevants en la definició de les estructures socials del futur. 

La Intel·ligència Artificial, per exemple, és masclista. I així seguirà, de moment, si no s’incorpora més diversitat en els camps de coneixement que acaben decidint el seu funcionament. 

El masclisme convertit en IA

Amazon (l’empresa multinacional, no la selva que continua cremant, ara més desprotegida que mai) va ser notícia l’octubre de l’any passat quan es va descobrir que havia retirat un sistema de reclutament de personal que estava discriminant les dones. El més preocupant no era la discriminació en si, malauradament molt habitual en el sector tecnològic, el veritable problema era que darrere el sistema no hi havia un ésser humà misogin sinó una intel·ligència artificial que havia après de forma autònoma a discriminar els currículums de dones

El sistema avaluava els currículums dels candidats de forma independent, donant d’una a cinc estrelles a cada resum curricular talment com si es tractés d’un dels productes de venda en línia que han fet créixer l’empresa. Amazon va començar a utilitzar l’eina el 2014 però ben aviat es va adonar de la seva preferència pels treballadors masculins: qualsevol tret que indiqués feminitat (paraules clau, expressions, lloc d’estudis…) puntuava a la baixa. Amb aquest sistema, un currículum d’una dona mai s’hauria endut cinc estrelles. 

Amazon, per la seva banda, assegurava que mai va arribar a basar la contractació de ningú en les qualificacions del sistema. La Intel·ligència Artificial va demostrar-se poc fiable: estava contaminada per una tendència humana.

L’algoritme basava el seu criteri de puntuació en el patró de contractació i promoció de currículums que havia seguit la companyia en els darrers 10 anys. En aquest període, pel que apunten les dades, Amazon va estar afavorint la contractació de treballadors masculins i va ser aquesta mateixa inclinació la que va copiar i reflectir l’algoritme de reclutament per puntuar negativament els currículums de les dones. El masclisme cultural de l’empresa s’havia infiltrat en un sistema modern. 

Les matemàtiques també podien tenir prejudicis i ser injustes.

L’aparent revestiment objectiu i asèptic d’un algoritme, pura matemàtica, s’esquerdava davant la mirada de tot el món. Molts descobrien per primera vegada que les matemàtiques també podien tenir prejudicis i ser injustes. 

A qui la notícia no va agafar per sorpresa va ser a la matemàtica nord-americana Cathy O’Neil. L’autora de Weapons of Math Destruction -una reflexió indispensable sobre el paper protagonista dels algoritmes i el Big Data en la perpetuació d’injustícies i inequitats socials– feia un temps que esperava que passés una cosa similar. De fet, ja havia avançat el procés en què un algoritme que alimentés una Intel·ligència Artificial podria beure de dades tacades de patrons tòxics o injustos -potser inapreciables pels humans a primer cop d’ull- i, conseqüentment, reproduir-los en els seus algoritmes sorgits de l’aprenentatge automàtic.  

Precisament, Cathy O’Neil es dedica professionalment a auditar algoritmes. Analitzar i avaluar com funcionen, anar més enllà del conegut com efecte “black box” que impedeix saber exactament com prenen les decisions les intel·ligències artificials i les màquines d’aprenentatge automàtic. O’Neil comprova que els algoritmes no estan contaminats per prejudicis humans i que, per tant, funcionaran realment sense repetir els mateixos errors que els humans que els han programat.

Investigació en IA: monopoli d’homes

La Bretxa Digital de gènere perpetuada en Intel·ligència Artificial es troba en la mateixa arrel del problema. La fundació d’innovació britànica, Nesta (National Endowment for Science, Technology and the Arts), va presentar el juliol un estudi en el qual havia analitzat el contingut de publicacions sobre Intel·ligència Artificial del reconegut repositori en línia de documents científics arXiv.

Les conclusions de l’estudi eren demolidores. Menys del 14% dels autors d’investigacions científiques publicades al repositori eren dones. Quedava pal·lès que el problema de diversitat, tot i que accentuat en segons quins països, és transversal i afecta tant a grans empreses tecnològiques com a universitats i a altres institucions de recerca. 

Les publicacions d’autores tenen més càrrega ètica i són socialment més compromeses.

El problema, a més, quedava especialment evidenciat en l’anàlisi qualitativa dels estudis analitzats: tots aquells que incorporen com a mínim una dona en la llista d’autors tendeixen a ser més socialment compromesos i a incorporar més sovint termes i conceptes socials com “equitat”, “mobilitat humana”, “mentalitat”, “salut”, “gènere” i “personalitat”.

L’estudi de Nesta també confirma que les publicacions realitzades per almenys una dona tendeixen a tenir més càrrega social o ètica. La diversitat en la investigació, per tant, no augmenta només la quantitat dels punts de vista sinó que també amplia els camps investigats, en aquest cas en un tema tan sensible com la intel·ligència artificial que amenaça en tenir un paper important en tot àmbit social. 

Dones i TIC a Catalunya

En la darrera presentació del Baròmetre del sector TIC a Catalunya del Cercle Tecnològic de Catalunya, el passat 18 de juliol, es va demostrar que, a Catalunya -com és habitual en el sector en l’àmbit internacional-, el paper de la dona en l’àmbit tecnològic és minoritari (un 29% del total dels treballadors del sector). Encara pitjor, aquest tendeix a ser irrellevant en el sentit que no acostuma a trobar-se en posicions de presa de decisions o en posicions realment TIC (al voltant del 8% del total de treballadors). 

El problema també és econòmic: un dels grans frens del desenvolupament de les empreses TIC és la manca de talent i, en l’actualitat, el fet que les TIC no afavoreixin la incorporació de talent femení i que, conseqüentment, les dones no s’incorporin al sector, implica deixar al marge de les companyies tecnològiques la meitat de la població. 

El problema de la Bretxa Digital de gènere és més greu a Catalunya que a la resta d’Europa

No hi ha dones en el sector i, de les que hi ha, poques es dediquen realment a programar, a construir eines o a decidir el funcionament dels algoritmes. Màrqueting, comunicació, finances, etc. són els departaments majoritaris de destí. De fet, el problema de la Bretxa Digital de gènere és més greu a Catalunya que a la resta d’Europa i el pitjor és que no hi sembla haver interès en solucionar-ho: el 89% de les empreses TIC no tenen un pla específic orientat a la incorporació de dones a la seva empresa, segons les dades del Baròmetre. 

La CEO de Redpoints, Laura Urquizu, va deixar anar una frase durant la presentació del Baròmetre 2019 que no va passar desapercebuda, especialment per les dones de l’audiència: “A mi no me gusta nada que todos los algoritmos que deciden por nosotros los estén desarrollando hombres“. 

Urquizu, en la seva condició de cap d’una de les empreses més destacades del panorama startup català, pionera en la utilització de la Intel·ligència Artificial, aprenentatge automàtic i reconeixement automàtic d’imatges, és conscient del potencial de la IA i com és de decisiu el paper de la programació dels algoritmes que, cada vegada més, defineixen la nostra manera de prendre decisions. Per això és preocupant, per tot el conjunt de la societat, que aquest paper estigui monopolitzat per un perfil tan específic. Cal diversitat.  

La IA ha de ser una obra col·lectiva

A finals d’agost, els CEO d’Alibaba i de Tesla, els influents Jack Ma i Elon Musk, van ocupar els titulars de tots els mitjans especialitzats per les seves sempre interessants opinions -i desacords- sobre Intel·ligència Artificial en un debat organitzat a Shanghai. El primer, conegut també per les seves declaracions en defensa de les jornades laborals de 12 hores (tot i que en el mateix debat va assegurar que les IA permetrien reduir la jornada a 12 hores de feina… a la setmana), i el segon, un dels que sostenen la idea de bombardejar Mart amb armes atòmiques (tot i tenir un bon grapat de científics que no ho veuen gens clar). Durant més de 45 minuts van estar confrontant idees sobre les implicacions de la tecnologia que confereix autonomia a les màquines, amb punts de vista divergents i algunes idees comunes. Això sí: tots dos, multimilionaris; tots dos, homes. I dos dels grans inversors en aquesta tecnologia, tot i l’abandonament d’OpenAI de Musk.

 

 

Una de les frases més destacades pels mitjans que van seguir aquest debat va ser de Musk. Parlava de com la IA acabarà per convertir les feines en inútils i que, segurament, “l’últim treball que quedarà serà escriure programari d’IA”. Si considerem que els auguris de Musk són correctes i s’arribarà a un moment en el què tot quedarà en mans de les màquines, les seves intel·ligències recreades artificialment i els algoritmes que les configuren; és imperiós que aquestes siguin “educades” en construir la millor societat possible. 

Si aquesta ha de ser la darrera oportunitat de l’ésser humà (sigui en 25 anys, en una cinquantena o en un segle) per decidir els mecanismes socials del futur, com a mínim ens hem d’assegurar d’encertar-la

Tenint en compte que els algoritmes són els que comencen a prendre i prendran la majoria de les decisions que afecten la nostra quotidianitat, qui els investiga, els posa a prova i els desenvolupa ha de ser necessàriament un equip divers de persones que eviti la perpetuació de discriminacions, ideologies úniques i injustícies. S’hi han d’involucrar, des d’avui mateix, diferents ètnies, orígens socials, gèneres, religions i ideologies.

La programació dels algoritmes que guiaran el funcionament de les intel·ligències artificials del futur ha d’aspirar a incloure tots els punts de vista i totes les realitats humanes. Tota la nostra riquesa. Per evitar que tornem a llegir, d’aquí a uns anys, un titular que denunciï que la Intel·ligència Artificial és masclista. 

 

Imatge vía www.vpnsrus.com