Es noticia
La inteligencia artificial es tan sexista como la sociedad, pero no es fácil arreglarlo
  1. Tecnología
¿eliminar el sesgo malograría los algoritmos?

La inteligencia artificial es tan sexista como la sociedad, pero no es fácil arreglarlo

Los programas de traducción o de muestra de resultados tras una búsqueda son susceptibles de estar tan sesgados como el idioma con el que funcionan

Foto:

No todas las formas de sexismo son fácilmente identificables y eliminables en nuestro día a día. Hay costumbres y modos del lenguaje que corresponden a un sexismo muy arraigado en la sociedad. Y, según una investigación, se lo estamos trasladando también a la inteligencia artificial, especialmente a aquella que utiliza el lenguaje.

El autor de la investigación James Zou, es profesor en la Universidad de Stanford y anteriormente trabajaba en Microsoft. Según sus conclusiones, existe un sutil sesgo de género en los datos que se utilizan para enseñar a hablar a los programas de IA, y a medida que esos sistemas se van extendiendo y adquiriendo nuevas funciones, ese punto de vista sexista puede tener consecuencias negativas, por ejemplo en las búsquedas de empleo, cuenta la 'MIT Tecnhology Review'.

El problema nace con el método que se usa para enseñar a las máquinas a hablar. Los ingenieros introducen en estos 'softwares' enormes cantidades de palabras escritas o habladas, y dejan que sean ellos los que tracen las relaciones entre ellas y las frases que forman. El resultado son conjuntos de datos que se usan para entrenar a los sistemas de inteligencia artificial que utilizan nuestro idioma, como los 'chatbots', sistemas de traducción, programas que describen imágenes, o los algoritmos que nos recomiendan webs e información según lo que busquemos.

¿"Programador" o "ama de casa"?

Esos conjuntos de datos representan la relación entre palabras cuando éstas se corresponden con distintos valores matemáticos. Esto hace que una máquina pueda reconocer una conexión semántica entre "rey" y "reina", y entender que la relación entre ambas palabras es similar a la que hay entre "hombre" y "mujer". Pero los investigadores descubrieron también que encuentran la palabra "programador" ('programmer', sin género asignado en inglés), mas cerca de "hombre" que de "mujer", y que la palabra más parecida para "mujer" es "ama de casa" ('homemaker').

Escribieron un programa para ordenar webs según su relevancia, y este situaba las de programadoras por debajo de las de sus colegas masculinos

Zou y su equipo llevaron a cabo algunos experimentos que demostraban cómo ese sesgo podía ponerse de manifiesto: escribieron un programa diseñado para leer páginas web y ordenarlas según su relevancia, y descubrieron que el sistema situaba la información sobre programadoras por debajo de aquella sobre sus colegas masculinos. Para solucionarlo, proponían reajustar la relación matemática entre las palabras de género neutro ('programmer') y las de género definido (como "hombre" o "mujer").

Un fallo, o una característica más

Foto: inteligencia-artificial-y-sexo-es-etico-crear-robots-para-satisfacer-nuestros-deseos

Sin embargo, no todo el mundo está de acuerdo con que ese sesgo deba desaparecer de los sistemas de inteligencia artificial. Otra investigación llevada a cabo por el profesor Arvind Narayanan, encontró sesgos no solo sexistas, sino también raciales y con otro tipo de prejuicios. Pero en su opinión, eliminarlos con sistemas automáticos podría reducir la representación del mundo real que manejan estos programas, y con ellos hacerlos menos útiles a la hora de hacer predicciones o analizar datos.

"No deberíamos pensar en esto como un fallo, sino como una característica", explica Narayanan. "Realmente, todo depende de la aplicación. Lo que supone un sesgo o un prejuicio intolerable en una aplicación puede ser exactamente lo que necesitabas extraer de los datos en otra".

Sin embargo, para otros sí que supone un problema. Barbara Grosz, de la Universidad de Harvard, cree que pueden exacerbar una desigualdad ya existente. "Cuando estás en una sociedad que evoluciona de ciertas formas, lo que quieres es cambiar el futuro para que no sea como el pasado, y puesto que confiamos en los algoritmos que están haciendo ese tipo de predicciones, la cuestión ética es si no estaremos inhibiendo precisamente la evolución que queremos".

No todas las formas de sexismo son fácilmente identificables y eliminables en nuestro día a día. Hay costumbres y modos del lenguaje que corresponden a un sexismo muy arraigado en la sociedad. Y, según una investigación, se lo estamos trasladando también a la inteligencia artificial, especialmente a aquella que utiliza el lenguaje.

Inteligencia Artificial
El redactor recomienda