Fa uns dies parlàvem amb la Judith Membrives, responsable de digitalització de Lafede.cat sobre com treballar per una intel·ligència artificial coherent amb els drets humans i la justícia global. La IA és una tecnologia que cada cop és més present en el nostre dia a dia i és important ser conscients dels seus riscos i beneficis i reflexionar sobre com podem millorar el benestar de les persones fent un ús responsable d’aquesta. L’Observatori d’Ètica en Intel·ligència Artificial de Catalunya (OEIAC) i el departament de la Vicepresidència i de Polítiques Digitals i Territori han impulsat el Model PIO (Principis, Indicadors i Observables), una guia d’autoavaluació perquè les organitzacions puguin determinar fins a quin punt fan un ús ètic de les dades i els sistemes d’IA que utilitzen.
“L’eina neix amb un doble objectiu: sensibilitzar als diferents agents sobre la importància d’adoptar principis ètics fonamentals per minimitzar riscos i maximitzar oportunitats, i identificar accions per valoritzar, recomanar i avançar en l’ús ètic d’aquestes tecnologies”, expliquen. Es tracta d’una iniciativa pionera, ja que és la primera guia d’implementació i autoavaluació de dades i sistemes d’IA que, entre altres coses, permet a les organitzacions obtenir una insígnia de qualitat de retorn.
7 principis ètics
Per portar a terme el model d’autoavaluació PIO, les organitzacions han de respondre de manera afirmativa o negativa a un qüestionari de 70 preguntes basades en 7 principis ètics relacionats amb l’ètica de dades i dels sistemes d’IA:
- Transparència
- Justícia i equitat
- Seguretat i no maleficència
- Responsabilitat i retiment de comptes
- Privacitat
- Autonomia
- Sostenibilitat
Es pot triar entre una autoavaluació ràpida de resposta binària (Sí/No), o una de completa on s’ha d’incloure una justificació sobre cadascuna de les respostes. Una vegada es contesta el formulari, el Model PIO genera una insígnia ètica de qualitat que actua com a representació gràfica de la puntuació que aconsegueix l’organització en cadascuna de les 7 categories. A més, si es completa l’autoavaluació més extensa, es poden rebre recomanacions específiques de millora, perquè l’OIEAC analitza les respostes qualitatives i proporciona retorn a l’organització.
El Model, que s’ha desenvolupat amb el suport de la Universitat de Girona i de la fundació i2CAT i ja es troba disponible a la pàgina web de l’OEIAC i pot ser una eina clau per sensibilitzar les entitats sobre les implicacions morals de fer servir models d’IA i minimitzar els riscos.