Avisos Legales
Internacional

Máquinas de Inteligencia Artificial (IA) se vuelven machistas y racistas al aprender el lenguaje

Por: El Desconcierto | Publicado: 21.04.2017
Máquinas de Inteligencia Artificial (IA) se vuelven machistas y racistas al aprender el lenguaje inteligencia-artificial |
El estudio evidenció que las máquinas asociaban con mayor probabilidad los nombres femeninos a tareas domésticas y familiares, mientras que los masculinos estaban vinculados a conceptos relacionados con la carrera profesional. Del mismo modo, asoció las palabras «mujer y «niña» a palabras relacionadas a las artes, en desmedro de las matemáticas.

Según un estudio publicado el pasado jueves en la revista Science, cuando una inteligencia artificial (IA) aprende un idioma, termina por asumir los sesgos humanos que están incluidos en el lenguaje sin que nos demos cuenta. De esta manera, las máquinas basadas en aprendizaje automático se vuelven racistas y machistas al aprender un idioma.

Según consigna El Diario, estas máquinas pueden asumir los sesgos de forma directa, a través de sus propios programadores, o a través de los datos que utiliza para su aprendizaje.

La principal autora del estudio, la investigadora de la Universidad de Princeton, Aylin Caliskan, «los modelos de aprendizaje automático que están entrenados partir de datos humanos a gran escala pueden desarrollar estereotipos, ya que a partir de esos datos las máquinas son capaces de representar con precisión hechos sobre el mundo y la cultura humana, lo que inevitablemente incluye sesgos».

Según el análisis, algunos aspectos del significado de las palabras pueden ser inducidos a partir de la forma en la que las ordenamos, algo que se ha estudiado durante las últimas décadas. Desde los 90, diversos estudios señalan que los niños acaban asumiendo los significados de una palabra gracias al contexto en que dicha palabra se repite, y en los discursos que van encontrando a lo largo de su aprendizaje.

Por ejemplo, el hecho de que las palabras con significados parecidos tiendan a repetirse en contextos similares permite que, mediante un análisis estadístico, una máquina pueda obtener información para entender su significado. 

«Lo que hacemos es buscar la probabilidad que tiene cada palabra de estar rodeado por otras, de esta forma, la IA puede determinar que un perro es más similar a un gato que a una nevera, porque solemos decir voy a casa a darle de comer a mi perro/gato, pero nunca decimos voy a casa darle de comer a mi nevera», explica Joanna Bryson, otra de las investigadoras del proyecto.

Nombres femeninos vinculados a tareas domésticas y familiares

Al desarrollar una IA que utilizó más de 2 millones de palabras durante su aprendizaje, analizaron la forma en que ésta asociaba las distintas palabras, con test parecidos a los que se aplican a los humanos para descubrir sus sesgos inconscientes.

Entonces, descubrieron que la máquina reproducía sesgos habituales en los humano. Por ejemplo, asociaba con mayor probabilidad los nombres femeninos a palabras relacionadas con tareas domésticas y familiares, mientras que los nombres masculinos estaban vinculados a conceptos relacionados con la carrera profesional. Del mismo modo, asoció con mayor probabilidad palabras como «mujer» y «niña» a conceptos relacionados a las artes y menos con las matemáticas.

Las investigadoras también evidenciaron cómo la IA asumía sesgos raciales, vinculando nombres americanos de origen europeo con más estímulos positivos que los nombres afroamericanos. 

«Esto refleja el hecho de que las asociaciones sesgadas tienen lugar de forma frecuente en los textos a los que ha tenido acceso la máquina, hasta el punto que han terminado dando lugar a estereotipos estadísticamente significativos que han sido reconocidos y aprendidos por la IA», concluyeron.

Las líderes de la iniciativa aseguraron que estos hallazgos deben ser tomados en cuenta no sólo desde el análisis del lenguaje, sino que a la hora de desarrollar IAs de aprendizaje automático, ya que estas tecnologías «pueden perpetuar estereotipos culturales». 

Otro de los casos observados por las autoras, en donde se evidencia este tipo de sesgos, es el de la traducción automática. Por ejemplo, el popular traductor de Google, que al traducir frases con pronombres neutros, termina introduciendo pronombres con roles de género impuestos. Por ejemplo, en las frases O bir doktor. O bir hemsire”, que traduce como «Él es doctor. Ella es enfermera».

«Sabemos que el lenguaje refleja nuestros prejuicios y, aunque no está claro si los seres humanos aprendemos estereotipos a través del lenguaje o si son éstos los que pasan a formar parte de un lenguaje a través del tiempo, lo que sí sabemos es que si el lenguaje es más inclusivo, las asociaciones estereotípicas disminuirán», sentencia Aylin Caliskan.

Por último, señaló que «las IA que desarrollemos no podrán ser del todo imparciales, hasta que lo seamos los seres humanos».

Déjanos tus comentarios
La sección de comentarios está abierta a la reflexión y el intercambio de opiniones las cuales no representan precisamente la línea editorial del diario ElDesconcierto.cl.