Los ordenadores también se dejan llevar por los prejuicios al tomar decisiones
Las matemáticas no siempre son de fiar. En ocasiones, los algoritmos informáticos cometen errores y se dejan llevar por ciertos prejuicios a la hora de realizar los cálculos
En un banco, asesoran sobre la conveniencia o no de conceder una hipoteca. En los departamentos de recursos humanos, agilizan la dura tarea de filtrar candidatos para un puesto de trabajo. En empresas como Amazon o Netflix, ayudan a conocer los hábitos de compra y los gustos cinematográficos de los usuarios.
Los algoritmos han invadido nuestro día a día y no cabe duda de que, con los avances en el campo de la inteligencia artificial y los altos volúmenes de información que se manejan, seguirán facilitando la realización de tareas antes complejas o inasumibles. Sin embargo, las matemáticas no siempre son de fiar. En ocasiones, algoritmos como estos cometen errores y se dejan llevar por ciertos prejuicios a la hora de realizar los cálculos.
A esa conclusión ha llegado un grupo de investigadores de la Universidad de Utah, la Universidad de Arizona y el Haverford College de Pennsylvania después de analizar los algoritmos de aprendizaje de las máquinas y ordenadores (machine learning) que emplean, por ejemplo, los programas de selección de personal o de concesión de préstamos hipotecarios en Estados Unidos.
A la hora de comprar en Amazon, pedir una hipoteca o buscar trabajo, un algoritmo analiza tus datos. Igual que las personas, también te puede prejuzgar
Según Suresh Venkatasubramian, profesor de la Escuela de Informática de la Universidad de Utah, un algoritmo no es únicamente un pedazo de código que un desarrollador escribe, sino una herramienta que maneja datos y que, dependiendo del tipo de información que seleccione, obtendrá diferentes resultados.
Precisamente, fue en los resultados diversos en lo que se fijaron los científicos para determinar si este tipo de algoritmos tiene en cuenta la llamada teoría del impacto dispar, una herramienta legislativa estadounidense que afirma que una política se considera discriminatoria si tiene un impacto adverso desproporcionado sobre un grupo de población, en base a su raza, origen, color, religión o sexo, entre otros factores. Según explica Venkatasubramian a Teknautas, cuando un algoritmo de selección de personal escoge los datos, se centra en palabras clave de los currículos y dicha información pasa desapercibida.
“Digamos que el jefe de recursos humanos de una compañía o el banquero que concede un préstamo utiliza un algoritmo que es neutral y no presenta tales discriminaciones”, anuncia el investigador. “Sin embargo, está usando datos en conjunto y esos datos contienen esta información. De ahí que podamos entender que, en realidad, la está usando”, concluye. De esta forma, el resultado, lo quiera o no, podría contener algún prejuicio.
La tarea de quitar prejuicios
Además de averiguar si los resultados que ofrece un algoritmo discriminan sin pretenderlo, los científicos dieron con un método para comprobar si realmente un algoritmo incorpora ciertos sesgos.
Sería tan sencillo como emplear la prueba que proponen en su investigación. En ella, un algoritmo desarrollado por los investigadores analiza a su homólogo en busca de prejuicios. Si observa que los datos se pueden dividir en conjuntos más pequeños y, por tanto, se puede predecir la raza o el género de una persona, “potencialmente - y no estoy diciendo que lo haga - podría lanzar resultados con sesgo”, señala el investigador.
Pero, ¿cómo se arreglaría un algoritmo que resuelve tareas en base a prejuicios? Según Venkatasubramian, tan solo habría que volver a distribuir los datos que analiza. En el caso de un algoritmo de selección de personal, consistiría en cambiar las palabras clave observadas. Aunque no todos los algoritmos resultan sencillos de rectificar: “El problema es que algunos algoritmos son tan complicados que es difícil saber cómo arreglarlos”.
De acuerdo con el investigador, aún no podemos decir a ciencia cierta si esos algoritmos que influencian nuestro día a día actúan en base a prejuicios, de ahí que incida en la necesidad de seguir investigando sobre el tema. “Creo que tenemos que explorar más este campo en el contexto estadounidense y europeo, y para ser sincero creo que, dada la preocupación por los datos, cada vez vemos más y más ejemplos de algoritmos con prejuicios individuales”.
En un banco, asesoran sobre la conveniencia o no de conceder una hipoteca. En los departamentos de recursos humanos, agilizan la dura tarea de filtrar candidatos para un puesto de trabajo. En empresas como Amazon o Netflix, ayudan a conocer los hábitos de compra y los gustos cinematográficos de los usuarios.