L’ús de la tecnologia és racista?

14 gener 2021

Temps de lectura 3 minuts

Avui en dia, l’anàlisi político-social requereix tenir en compte les eines tecnològiques que intervenen en el nostre dia a dia, i és per això que cal plantejar-nos com s’utilitza la tecnologia, ja que per si mateixa no pot ser autoritària ni racista. La tecnologia la creem nosaltres, les persones

 

ALGORISMES TRANSPARENTS I RESPONSABLES

En anteriors articles parlàvem de que la IA i l’ètica han de ser part d’una mateixa unitat com a decisió política, on la regularització garanteixi el compliment dels drets humans i on el poder sigui capaç de transmetre a la societat el valor de la Intel·ligència Artificial, fent valdre la vida i la justícia social al centre de les decisions. Alhora afirmavem que l’optimisme per la progressió de la societat implica respectar l’autonomia humana des de dissenys transparents, responsables i robusts fins a l’aplicació de la IA. Amb tecnologies justes, responsables i inclusives serà tota la societat qui es beneficiï de la Intel·ligència Artificial.

Així doncs, sabem que la Intel·ligència artificial no és una massa homogènia, ni una eina, ni una aplicació, ni tan sols una metodologia. Són un conjunt de tècniques que apliquen les persones. Per tant, la voluntat de recaptar aquestes variables per analitzar-les, no és de la IA sinó de les persones. Els algorismes prendran decisions importants i participaran de la política, l’economia i la societat en la que vivim, de forma coherent a com se’ls prepara i/o autoritza. 

És per això que quan parlem de tecnologia cal també que ens plantegem per qui està creada i a qui va dirigida, a qui beneficia i per tant, si discrimina també a col·lectius i quins són. 

Ateses les circumstàncies viscudes en els darrers mesos i el degoteig constant d’abusos i situacions de racisme creuem aquesta variable amb els recursos tecnològics per plantejar-nos si aquests també estan tacats de supremacisme i/o racisme. Per plantejar-nos si la tecnologia és racista cal ser conscients que parlar de tecnologia i innovació es tradueix en l’oportunitat de parlar de transparència i futur just, però per això cal  repensar des de quins valors i amb quins objectius s’utilitza aquesta tecnologia sabent que no només analitza grans volums d’informació sinó que té capacitat de prendre decisions de manera autònoma. Destaquem doncs que realment els nous algorismes que es creen no són per sí eines de segregació i priorització, ja que les decisions i els algorismes estaran esbiaixats, si els propòsits en el seu desenvolupament ho són. 

Sabent que els sistemes d’intel·ligència artificial a gran escala es desenvolupen en la seva majoria en empreses i laboratoris d’elit, ubicats a Occident i Orient, és necessari intentar ampliar la creació de sistemes tecnològics, cap a un model on s’incloguin persones diverses als equips de treball i laboratoris tecnològics, amb una mirada interseccional sobre la societat.

 

RECONEIXEMENT FACIAL AMB BIAIX DE RAÇA 

Un dels exemples més mediàtics els darrers mesos ha estat el tema del reconeixement facial. De fet, IBM i Amazon abjuren de la tecnologia de reconeixement facial pel biaix racista. 

IBM considera que lluitat contra el racisme és més urgent que mai i és per això que va anunciar que no avala l’ús de cap tecnologia amb fins de vigilància massiva, discriminació racial i/o violacions dels drets humans.

Diversos estudis han demostrat que la tecnologia de reconeixement facial discrimina a les persones negres i altres ètnies no-blanques, i especialment a les dones, a les que té més problemes per a distingir i per tant, identificar. 

Un estudi del MIT Media Lab va concloure el 2018 que, encara que la precisió mitjana d’aquests productes oscil·la entre el 93,4% i el 87,9%, les diferències en funció del color de pell i el sexe són notables, fins al punt que el marge d’error entre identificar un home blanc i una dona negra és del 34% major en el cas del programari d’IBM; el 93% dels errors comesos pel producte de Microsoft afecta persones de pell fosca, i el 95% dels errors de Face ++, una alternativa xinesa, es referia a dones.

Una identificació incorrecta presa a partir d’algoritmes pot tenir greus conseqüències com per exemple: condemnes penals i discriminacions d’accés en termes d’habitatge, estudis, feina o préstecs, que afecten directament a les condicions de vida de les persones racialitzades i estigmatitzades socialment.

Així doncs, cal tenir present que els algorismes poden contenir biaixos, conscients i inconscients, perquè han estat dissenyats a partir d’informació generada per les persones. Fer-ho ,és responsabilitzar-se i comprometre’s a no reproduir en l’entorn digital les discriminacions socials.