Trabajo: Así van a ser las entrevistas de trabajo del futuro inmediato (y vas a salir perdiendo)
UNA CUESTIÓN DE MÁQUINAS

Así van a ser las entrevistas de trabajo del futuro inmediato (y vas a salir perdiendo)

Tu próximo interlocutor para optar a un empleo ya no será humano. Una Inteligencia Artificial te examinará en base a unos algoritmos (y bastante racistas, por cierto)

Foto: Foto: iStock.
Foto: iStock.

Si estás nervioso por tu próxima entrevista de trabajo ten cuidado. Quizás tu interlocutor no sea humano. Sobre todo, si buscas empleo fuera de España. ¿Qué te parece Londres? En Reino Unido, las empresas de todo el país están utilizando sistemas de inteligencia artificial algo rudimentarios para hacer una criba y eliminar a solicitantes de empleo antes de que comiencen las entrevistas. Muchas de estas compañías tienen personas entrevistadas frente a una cámara conectada a una IA (Inteligencia Artificial) que analiza su voz y expresiones faciales, informa el diario 'The Daily Beast'.

Una de las empresas pioneras en este nuevo modelo de selección de personal es Hirevue, dedicada a producir un software que analiza diferentes candidatos para empresas insignia como Hilton y Unilever. Su inteligencia artificial les pide a los candidatos que respondan preguntas estándar frente a una cámara. Mientras tanto, su software, como un equipo de psicólogos escondidos tras un espejo, toma nota de miles de cambios apenas perceptibles en la postura, la expresión facial, el tono vocal y la elección de las palabras, según explica en un artículo 'The Guardian'.

La IA está entrenada para aprender a descifrar rostros blancos varones, por lo que puede hacer juicios negativos sexistas o racistas

"Acotamos y analizamos las respuestas dadas por la gente en miles de puntos de datos, en señales verbales y no verbales", asegura Nathan Mondragon, el jefe del equipo de psicólogos de Hirevue. Según él, encontrar al empleado adecuado implica atender a los detalles. Decenas de miles de pequeñas cosas que den con la persona ideal para desempeñar el trabajo. "Si estás respondiendo a una pregunta sobre cómo gastarías un millón de dólares, tus ojos tenderían a desplazarse hacia arriba, tus pistas verbales se silenciarían, o se convertirían en 'ums' y 'ahs'. La cabeza se inclinaría ligeramente hacia arriba. El análisis del movimiento facial nos diría que estás entrando en un estilo de pensamiento creativo", sostiene.

Pero todo esto puede derivar en una serie de graves problemas de discriminación. Debido a que la mayoría de los programadores de software son blancos, la IA está entrenada para aprender a descifrar rostros de raza blanca, por lo que esto puede conllevar a que haga percepciones erróneas de caras negras o voces femeninas. Esto provoca que la máquina haga juicios negativos sobre estas personas, con resultados sexistas o racistas.

Foto: iStock.
Foto: iStock.

"Si usas datos que reflejen el sesgo racial o de sexo y le pides a una herramienta matemática que haga predicciones basadas en esta información, el resultado reflejará ese sesgo", admite Raquel Goodman, abogada del Programa de Justicia Racial de la Unión de las Libertades Civiles (ACLU). "Es casi imposible crear un algoritmo que no produzca una inclinación hacia algo, porque casi todos los datos pueden ser conectados a factores como raza o género. Hemos visto que esto pasa cuando son utilizados para determinar sentencias de prisión o de libertad condicional en nuestro sistema de justicia".

Es inevitable que dichas secuencias lógicas de datos discriminen a los candidatos. "Sin pretenderlo, los programadores de código expresan sus ideas a través de la escritura en código", opina Dipayan Ghosh, miembro del Centro Shorenstein en la Harvard Kennedy School. "Sus diseñadores tienen antecedentes personales y cada vez que expresas una idea, ya sea escrita, impresa o en código, esa discriminación surge sin necesidad de haber un sesgo premeditado en ella". Esto no quiere decir que los programadores fabriquen robots racistas de forma intencionada. "El problema es que las empresas que crean estos productos no quieren revelar cómo funcionan sus algoritmos, porque entonces cualquiera podría recrearlo y sacar provecho", comenta Ghosh, algo que él define como "revelar tu salsa secreta".

Lewis Maltby, presidente del Instituto Nacional de Trabajadores de la Universidad de Cornell, argumenta que uno de los principales problemas es que las empresas dejen que las inteligencias artificiales tomen decisiones, en vez de simplemente usarlas como herramientas para llegar a esa resolución. "No es necesario usar la tecnología de manera incorrecta en la toma de decisiones de Recursos Humanos, pero los empleadores generalmente lo hacen", explica Maltby. "Nadie en Recursos Humanos quiere contratar a alguien cuando una prueba dice que no debería hacerlo. Si resulta ser un mal empleado, su carrera profesional podrá verse seriamente comprometida".

Maltby señaló que los empleadores han estado utilizando mal esta nueva tecnología durante el proceso de contratación: "Los de Recursos Humanos tienen una larga historia detrás a la hora de enamorarse de máquinas que prometen respuestas fáciles a decisiones difíciles", arguyó. Por ejemplo, el famoso polígrafo, estrella de ciertos programas televisivos. "Los polígrafos miden el estrés y no la veracidad de las respuestas, y un mentiroso patológico puede sentir estrés mientras está mintiendo. Una persona honesta puede sentir estrés simplemente porque están nerviosos. El estrés", concluye el experto, "a veces significa que hay un problema".

Alma, Corazón, Vida

El redactor recomienda

Escribe un comentario... Respondiendo al comentario #1
2 comentarios
Por FechaMejor Valorados
Mostrar más comentarios