Intel·ligència Artificial i ètica

2 juliol 2020

Temps de lectura 4 minuts

Avui en dia, la Intel·ligència Artificial és una de les tecnologies en les quals més s’inverteix pel seu potencial transformador i l’obertura de possibilitats fins ara difícils d’imaginar. 

Què fa que un sistema d’ IA sigui ètic?

Integrar l’ètica en la Intel·ligència Artificial no tracta de discernir entre el bé i el mal, sinó en repensar des de quins valors i amb quins objectius s’utilitza aquesta tecnologia sabent que no només analitza grans volums d’informació sinó que té capacitat de prendre decisiones de manera autònoma. Així, cal centrar-se en entendre que per dissenyar qualsevol sistema d’IA hi ha d’haver un principi de diversitat entre els equips de disseny i desenvolupament, així com unes pautes d’auditoria transparents, diverses i consultables, a efectes de garantir que tota la cadena de producció inclou visions i perspectives variades.

Tanmateix, abans de dissenyar la tecnologia cal aproximar-se a l’ètica, conèixer la societat i la cultura, i fer un esforç per utilitzar un codi ètic que parteixi de valors que universalment no poden ser qüestionats, com són els drets humans. 

Una tecnologia o màquina és ètica quan les decisions que pren estan regides per una programació ètica des del respecte als drets humans com per exemple la privacitat. L’ètica de la IA és l’ètica de les persones que desenvolupen, controlen i utilitzen aquesta tecnologia. 

És l’ètica una assignatura pendent per a la societat?

En la societat actual i la innovació tecnològica del segle XXI és imprescindible que rebem educació en matèria d’ètica i tecnologia, des dels desenvolupadors i institucions de poder fins a les persones usuàries siguin professionals o usuàries ciutadanes. Avui en dia, la societat es troba en intersecció total amb la IA. 

La formació ha de desagregar-se en qüestió del tipus de contacte i poder amb la tecnologia, és a dir, les persones desenvolupadores han de respectar els codis ètics i el marc legal i les persones que fan ús de la tecnologia han de comprendre quins són els riscos i en quin marc s’empra. No podem oblidar-nos que la resta de la societat, les persones usuàries, han de rebre informació transparent sobre l’ús, risc i utilitat de la IA, per sentir-se còmodes i segures. De manera contrària, la IA tot i tenir un valor potencial de transformació de la societat causarà rebuig social. 

L’anàlisi de dades sumada a les capacitats dels ADMS o Automated Decision Making Systems, realitzades per dispositius que ajuden a individus i organitzacions a prendre decisions, normalment classificant, donant prioritat o escollint entre diverses opcions, permeten prendre decisions de forma automàtica o suggereixen respostes a determinades situacions.

Aquests sistemes seran cada dia més habituals en l’entorn social i cal garantir que no produeixin casos de discriminació com els que cada vegada més som conscients que es donen.

A causa de la velocitat de la innovació tecnològica s’ha iniciat el debat social sobre la pèrdua de transparència, responsabilitat i equitat. Un debat encara obert, en el qual s’instaura el concepte de “La classe inútil” que planteja Noah Yuval Harari per a definir el grup de persones que queden fora de la comprensió o participació del domini de les noves tecnologies. Així, també participa del debat la por que la humanitat quedi obsoleta i ja no només que les màquines prenguin decisions per nosaltres, les persones, sinó que el rol de que els sistemes d’IA puguin desembocar en font d’injustícia, manipulació i vigilància per part dels estats. Això ve alimentat pels casos flagrants de vulneració de drets de les persones o situacions de discriminació que han pogut sortir a la llum als mitjans de comunicació, de manera que els fets noticiables i el desconeixement o la poca transparència han fet aquesta por més rellevant. 

Utilitzar sistemes d’IA per a la presa de decisions automàtiques en àmbits com el social, la salut o l’educació és un perill?

Els algorismes no són neutres, i menys quan conformen sistemes capaços d’aprendre mitjançant la seva experiència, així doncs tant poden convertir-se en aliats de la justícia social com a potenciadors de divergències i desigualtats. Per tant, la IA per si mateixa no és perillosa ni beneficiosa sinó l’ús que en fem d’ella les persones i els òrgans de poder. Parlem doncs, d’ètica. 

Existeix estigmatització al voltant de la IA?

Probablement un dels arguments socials que podem escoltar si preguntem per automatització de les decisions, els algorismes i el sistemes d’IA sigui l’eliminació de llocs de feina per culpa dels avenços tecnològics. Cal desfer aquest mite, educant en la transformació digital no com l’aparició de la tecnologia per se sinó com un canvi cultural que té múltiples beneficis per a la societat, en el qual les persones tenen un rol imprescindible.

Quins valors ha de reivindicar la IA ètica?

  • Transparència i drets fonamentals: 

La IA ha de poder ser auditada, descrivint-se el model de comportament en el qual es basa i garantint el respecte dels drets fonamentals així com la regulació aplicable. 

  • Comportament predictible: 

Comporta un context de proves de control ètic i la definició del mateix abans del seu ús. 

  • Centrada en totes les persones:

Comporta atenció als col·lectius vulnerables, no només a la societat hegemònica. En el disseny dels sistemes ha de comptar amb la participació de tots els grups d’interès amb els quals l’IA es relacioni, garantint també la no discriminació. Els processos de presa de decisions han de ser comprensibles.

  • Fiable i robusta davant possibles manipulacions: 

És imprescindible la seguretat del sistema per tal que no puguin manipular-la, ja que també serien atacats els criteris ètics. Cal que la seguretat s’integri per disseny en l’arquitectura del sistema i es provi en un entorn protegit abans de la implementació. 

  • Mecanismes de denúncia: 

Si un sistema pren una decisió que afecti els drets humans, ha de ser possible sol·licitar una explicació i presentar una queixa o demanda. 

  • Persones al final de la cadena de decisions:

Eliminar les persones de les tasques rutinàries i substituir-les per la IA, ha de tenir un impacte en creació de nous llocs de feina on les persones estiguin formades en aquests algorismes per tal de dedicar temps a agregar valor investigant al voltant de la seva activitat. Tal com exposa Algorules, cal que la IA s’integri en l’educació, la capacitació i la incorporació de nous equips humans. A més, l’intercanvi interdisciplinari ha de ser un esforç continu i obert a tothom qui mostri interès o afectació. 

També, han de ser al final de la cadena de decisions, sent capaces de racionalitzar les raons d’una presa de decisions concreta. 

En resum, la IA i l’ètica han de ser part d’una mateixa unitat com a decisió política, on la regularització garanteixi el compliment dels drets humans i on el poder sigui capaç de transmetre a la societat el valor de la Intel·ligència Artificial, fent valdre la vida i la justícia social al centre. L’optimisme per la progressió de la societat implica respectar l’autonomia humana des de dissenys transparents, responsables i robusts fins a l’aplicació de la IA. Amb tecnologies justes, responsables i inclusives serà tota la societat qui es beneficiï de la Intel·ligència Artificial.