Hace unos días hablábamos con Judith Membrives, responsable de digitalización de Lafede.cat sobre como trabajar por una inteligencia artificial coherente con los derechos humanos y la justicia global. La IA es una tecnología que cada vez está más presente en nuestro día a día y es importante ser conscientes de sus riesgos y beneficios y reflexionar sobre cómo podemos mejorar el bienestar de las personas haciendo un uso responsable de ella. El Observatori d’Ètica en Intel·ligència Artificial de Catalunya (OEIAC) y el departamento de la Vicepresidencia y de Políticas Digitales y Territorio han impulsado el Model PIO (Principios, Indicadores y Observables), una guía de autoevaluación para que las organizaciones puedan determinar hasta qué punto hacen un uso ético de los datos y los sistemas de IA que utilizan.
“La herramienta nace con un doble objetivo: sensibilizar a los diferentes agentes sobre la importancia de adoptar principios éticos fundamentales para minimizar riesgos y maximizar oportunidades, e identificar acciones para valorizar, recomendar y avanzar en el uso ético de estas tecnologías”, explican. Se trata de una iniciativa pionera, puesto que es la primera guía de implementación y autoevaluación de datos y sistemas de IA que, entre otras cosas, permite a las organizaciones obtener una insignia de calidad.
7 principios éticos
Para llevar a cabo el modelo de autoevaluación PIO, las organizaciones tienen que responder de manera afirmativa o negativa a un cuestionario de 70 preguntas basadas en 7 principios éticos relacionados con la ética de datos y de los sistemas de IA:
1. Transparencia
2. Justicia y equidad
3. Seguridad y no maleficència
4. Responsabilidad y retiment de cuentas
5. Privacidad
6. Autonomía
7. Sostenibilidad
Se puede elegir entre una autoevaluación rápida de respuesta binaria (Sí/No), o una completa en la que se tiene que incluir una justificación sobre cada una de las respuestas. Una vez se contesta el formulario, el Model PIO genera una insignia ética de calidad que actúa como representación gráfica de la puntuación que consigue la organización en cada una de las 7 categorías. Además, si se completa la autoevaluación más extensa, se pueden recibir recomendaciones específicas de mejora, porque la OIEAC analiza las respuestas cualitativas y proporciona retorno a la organización.
El Model, que se ha desarrollado con el apoyo de la Universitat de Girona y de la fundación i2CAT, ya se encuentra disponible en la página web de la OEIAC y puede ser una herramienta clave para sensibilizar a las entidades sobre las implicaciones morales de usar modelos de IA y minimizar los riesgos.