Inteligencia Artificial y ética

2 julio 2020

Temps de lectura 4 minuts

Hoy en día, la Inteligencia Artificial es una de las tecnologías en las cuales más se invierte por su potencial transformador y la apertura de posibilidades hasta ahora difíciles de imaginar. 

Qué hace que un sistema de IA sea ético?

Integrar la ética en la Inteligencia Artificial no se trata de discernir entre el bien y el mal, sino de repensar desde qué valores y con qué objetivos se utiliza esta tecnología a sabiendas de que no solo analiza grandes volúmenes de información sino que tiene capacidad de tomar decisiones de manera autónoma. Así, hay que centrarse en entender que para diseñar cualquier sistema de IA hay de haber un principio de diversidad entre los equipos de diseño y desarrollo, así como unas pautas de auditoría transparentes, diversas y consultables, a efectos de garantizar que toda la cadena de producción incluye visiones y perspectivas variadas.

Aun así, antes de diseñar la tecnología hay que aproximarse a la ética, conocer la sociedad y la cultura, y hacer un esfuerzo para utilizar un código ético que parta de valores que universalmente no pueden ser cuestionados, como son los derechos humanos. 

Una tecnología o máquina es ética cuando las decisiones que toma están regidas por una programación ética desde el respecto a los derechos humanos como por ejemplo la privacidad. La ética de la IA es la ética de las personas que desarrollan, controlan y utilizan esta tecnología. 

Es la ética una asignatura pendiente para la sociedad?

En la sociedad actual y la innovación tecnológica del siglo XXI es imprescindible que recibamos educación en materia de ética y tecnología, desde los desarrolladores e instituciones de poder hasta las personas usuarias sean profesionales o usuarias ciudadanas. Hoy en día, la sociedad se encuentra en intersección total con la IA. 

La formación tiene que desagregarse en cuestión del tipo de contacto y poder con la tecnología, es decir, las persones desarrolladoras tienen que respetar los códigos éticos y el marco legal y las personas que hacen uso de la tecnología tienen que comprender cuáles son los riesgos y en qué marco se emplea. No podemos olvidarnos que el resto de la sociedad, las personas usuarias, tienen que recibir información transparente sobre el uso, riesgo y utilidad de la IA, para sentirse cómodas y seguras. De manera contraria, la IA a pesar de tener un valor potencial de transformación de la sociedad causará rechazo social. 

El análisis de datos sumada a las capacidades de los ADMS o Automated Decision Making Systems, realizadas por dispositivos que ayudan a individuos y organizaciones a tomar decisiones, normalmente clasificando, dando prioridad o escogiendo entre varias opciones, permiten tomar decisiones de forma automática o sugieren respuestas a determinadas situaciones. Estos sistemas serán cada día más habituales en el entorno social y hay que garantizar que no produzcan casos de discriminación como los que cada vez más somos conscientes que se den.

A causa de la velocidad de la innovación tecnológica se ha iniciado el debate social sobre la pérdida de transparencia, responsabilidad y equidad. Un debate todavía abierto, en el cual se instaura el concepto de “La clase inútil” que plantea Noah Yuval Harari para definir el grupo de personas que quedan fuera de la comprensión o participación del dominio de las nuevas tecnologías. Así, también participa del debate el miedo que la humanidad quede obsoleta y ya no con solo que las máquinas tomen decisiones por nosotros, las personas, sino que el rol de que los sistemas de IA puedan desembocar en fuente de injusticia, manipulación y vigilancia por parte de los estados. Esto viene alimentado por los casos flagrantes de vulneración de derechos de las personas o situaciones de discriminación que han podido salir a la luz a los medios de comunicación, de forma que los hechos noticiables y el desconocimiento o la poca transparencia han hecho este miedo más relevante. 

Utilizar sistemas de IA para la toma de decisiones automáticas en ámbitos como el social, la salud o la educación es un peligro?

Los algoritmos no son neutros, y menos cuando conforman sistemas capaces de aprender mediante su experiencia, así pues tanto pueden convertirse en aliados de la justicia social como potenciadores de divergencias y desigualdades. Por lo tanto, la IA por sí misma no es peligrosa ni beneficiosa sino el uso que hagan de ella las personas y los órganos de poder. Hablamos pues, de ética. 

Existe estigmatización alrededor de la IA?

Probablemente uno de los argumentos sociales que podemos escuchar si preguntamos por automatización de las decisiones, los algoritmos y el sistemas de IA sea la eliminación de lugares de trabajo a causa de los avances tecnológicos. Hay que deshacer este mito, educando en la transformación digital no como la aparición de la tecnología per se sino como un cambio cultural que tiene múltiples beneficios para la sociedad, en el cual las personas tienen un rol imprescindible.

Qué valores tiene que reivindicar la IA ética?

  • Transparencia y derechos fundamentales: 

La IA tiene que poder ser auditada, describiéndose el modelo de comportamiento en el cual se basa y garantizando lo respecto de los derechos fundamentales así como la regulación aplicable. 

  • Comportamiento predecible: 

Comporta un contexto de pruebas de control ético y la definición del mismo antes de su uso. 

  • Centrada en todas las personas:

Comporta atención a los colectivos vulnerables, no solo a la sociedad hegemónica. En el diseño de los sistemas tiene que contar con la participación de todos los grupos de interés con los cuales lo IA se relacione, garantizando también la no discriminación. Los procesos de toma de decisiones tienen que ser comprensibles.

  • Fiable y robusta ante posibles manipulaciones: 

Es imprescindible la seguridad del sistema para que no puedan manipularla, puesto que también serían atacados los criterios éticos. Hace falta que la seguridad se integre por diseño en la arquitectura del sistema y se pruebe en un entorno protegido antes de la implementación. 

  • Mecanismos de denuncia: 

Si un sistema toma una decisión que afecte los derechos humanos, tiene que ser posible solicitar una explicación y presentar una queja o demanda. 

  • Personas al final de la cadena de decisiones:

Eliminar las personas de las tareas rutinarias y sustituirlas por la IA, tiene que tener un impacto en creación de nuevos lugares de trabajo donde las personas estén formadas en estos algoritmos para dedicar tiempos a agregar valor investigando alrededor de su actividad. Tal como expone Algorules, hace falta que la IA se integre en la educación, la capacitación y la incorporación de nuevos equipos humanos. Además, el intercambio interdisciplinario tiene que ser un esfuerzo continuo y abierto a todo el mundo quien muestre interés o afectación. 

En resumen, la IA y la ética tienen que ser parte de una misma unidad como decisión política, donde la regularización garantice el cumplimiento de los derechos humanos y donde el poder sea capaz de transmitir a la sociedad el valor de la Inteligencia Artificial, haciendo valer la vida y la justicia social en el centro. El optimismo por la progresión de la sociedad implica respetar la autonomía humana desde diseños transparentes, responsables y robustos hasta la aplicación de la IA. Con tecnologías justas, responsables e inclusivas será toda la sociedad quien se beneficie de la Inteligencia Artificial.