X
    Categorías: Campus

¿La IA es feminista? Esto dicen expertas de la UNAM

Foto: Pexels

Especialistas universitarias detallaron a Gaceta UNAM que aunque los creadores de la IA aseguran que no tiene género, es posible que sí perpetúe estereotipos de género o discriminación hacia la mujer, por lo que es un tema en el que hay que trabajar para darle a esta tecnología un carácter más feminista.

El auge y crecimiento de la IA ha hecho que las personas aprovechen esta tecnología y se beneficien en aspectos laborales y educativos.

Lamentablemente, como en muchas otras cosas, también hay personas que utilizan la IA para realizar malas prácticas y es entonces cuando entra en debate si es necesario que su desarrollo, sea supervisado o limitado.

Lee también: ¿Cómo la Inteligencia Artificial (IA) está ayudando a las empresas a ser más eficientes?

¿Es posible que la IA sea feminista? 

Saiph Savage, ingeniera en computación por la UNAM y con un doctorado en Ciencias de la Computación, detalló a Gaceta UNAM que es necesario recordar que la inteligencia artificial busca crear computadoras que puedan empezar a pensar como los seres humanos. 

La IA produce nuevo contenido desde la experiencia y el aprendizaje de máquina con la que se educan los sistemas a partir de la información. 

Para María Ximena Gutiérrez, lingüista computacional, la IA tiene algo reflejado de nosotros.

Ya que lo que está reflejado ahí de nosotros tal vez tiene muchos sesgos, reproduce estereotipos, incluidas cuestiones de género que se consideran machistas.

El enfoque predominante de la IA se basa en aprender de una gran cantidad de ejemplos, por lo que el sistema aprenderá de datos de origen que pueden estar sesgados.

Entonces no, la IA no es feminista, nadie le ha dado un curso para que lo sea. Sus datos no tienen un perfil inclusivo.

Pero, ¿por qué ocurre esto? La respuesta está en la forma en que la IA es programada por hombres, quienes reproducen orientaciones machistas. 

¿Cómo aprendió la IA a ser machista y patriarcal?

Por lo que hemos mencionado anteriormente, ya que la IA generativa tomará decisiones replicando aquello que aprendió de las personas.

En este camino, Saiph Savage recuerda que la IA está entrenada para reproducir.

Pero también puede amplificar, esto pensado en términos de machismo y violencia de género contra las mujeres.

Entonces la IA no puede ser neutral y ejemplo de ello es el caso de una empresa multinacional quien entre 2014 y 2015 descubrió que sus motores de contratación discriminaban a las mujeres. 

¿La razón? Su herramienta de selección, hasta ese momento experimental, trabajaba con un algoritmo que aprendió a valorar los patrones de las hojas curriculares en un tiempo de 10 años.

Y como el dominio masculino ha predominado en las industrias tecnológicas, una candidata sería discriminada sólo por ser mujer.

Esto lo hacía no ser neutral en cuestiones de género.

Por su parte, Aimée Vega, especialista en feminismo y comunicación del CEIICH explicó que estamos viendo casos terribles de violencia digital contra las mujeres.

Donde las mujeres son representadas como objetos sexuales y que incluso llegan a la pornografía.

¿Qué se puede hacer para tener una IA más equitativa?

Saiph Savage explicó que la UNAM cuenta con un curso de IA centrado en el ser humano para tener interacción en cada parte del proceso de la creación de la IA.

Con ello, se busca atacar los sesgos existentes en los datos, nutrir la IA con información en contra de la discriminación, los estereotipos y los sesgos de género.


La experta recalcó que la IA puede tener errores, pero es importante que haya personas que ayuden a corregirlos y percatarse de que es posible que estos sesgos existan.

Para finalizar, Saiph Savage detalló que el hecho de que la UNAM trabaja en que la IA esté pensada en las mujeres y sus necesidades, representa una oportunidad de innovación a través de diseños participativos.

Y es donde entra el feminismo, en donde la ola de mujeres de esta época trabajan por una IA responsable.

Comentarios
Samuel Fermín:

Esta web usa cookies.