ALGORITMOS Y ABARATAMIENTOS

IA en el empleo: 4 cambios que las empresas están introduciendo (y cómo te afectan)

¿Cómo se selecciona al personal? ¿Quién decide tu retribución? ¿Es posible ser despedido sin actuación humana? El mundo laboral está cambiando, pero aún no nos hemos dado cuenta

Aquella mañana, Ibrahim Diallo no fue capaz de cruzar los tornos de entrada a la oficina de Los Ángeles donde trabajaba. La tarjeta de acceso había dejado de funcionar. Al menos, contaba con un aliado humano: el guardia de seguridad, que le abrió la puerta. Cuando encendió el ordenador, ocurrió algo aún más extraño. Diallo no podía entrar en su cuenta. Un mensaje confirmó sus sospechas: ya no trabajaba ahí, pero no sabía por qué. Ni siquiera su jefe pudo darle una respuesta. No sabía nada. Pero estaba claro. “Contrato rescindido”.

Algo no encajaba. Alguien tenía que haber decidido que todo se había acabado. Pero en realidad era al revés. Nadie había decidido nada. Simplemente, en un periodo de transición, alguien se olvidó de pulsar el botón de 'renovación' y el sistema puso en marcha la expulsión. La solución, sin embargo, no fue tan sencilla como tocar otra tecla. Una vez había comenzado, el proceso no podía detenerse. La única alternativa para la empresa y el trabajador era aceptar el despido y ser reincorporado después. Diallo perdió tres semanas de sueldo.

Los sistemas automatizados están ampliando las desigualdades entre ricos y pobres y arrebatando poder a los vulnerables

La historia, contada por el trabajador en su blog, es un buen ejemplo de lo que puede ocurrir en el ámbito laboral cuando determinados procesos se automatizan. Tomas de decisiones en las que el humano no es que no participe, sino que ni siquiera es consciente de que se están tomando decisiones con las que no estaría de acuerdo.

A finales del pasado año, el AI Now Institute, dedicado a explorar las implicaciones éticas de la inteligencia artificial, publicó un informe en el que alertaba sobre los efectos negativos que la adopción de dichas tecnologías estaba provocando en la sociedad civil. No únicamente desde un punto de vista político, sino también cotidiano.

El ganador se lo lleva todo: estos sistemas de automatización y toma de decisiones sin participación humana “están ampliando las desigualdades, dando información y datos a los que ya tienen más poder y, por lo tanto, arrebatándolo a los que no lo tienen”, señalaba el informe.

Pero ¿de qué manera estos sistemas condicionan nuestra vida aunque no lo sepamos?

1. Tu entrevistador es una máquina

Los casos mostrados en el vídeo son tan solo la punta del iceberg de procesos automatizados que se venden como una herramienta de justicia social y a menudo no son más que una forma de abaratamiento. Los días en que los responsables de recursos humanos debían revisar decenas de currículos uno a uno han terminado. Si la inteligencia artificial ha comenzado a implantarse por algún lado en la empresa española, explica Gema FB Martín, psicóloga clínica experta en tecnoética, doctora en creatividad aplicada y directora de contenido en Salud Mental, robótica e IA, es por el cribado realizado de manera automática.

PREGUNTA. ¿Algún ejemplo?

GEMA. A un nivel muy básico, las pruebas de idiomas, que eliminan parte de una prueba normal. Al conversar con una máquina, el lenguaje está fuera. Se valoran menos aptitudes.

P. ¿Por qué se hace?

G. Para abaratar costes y acelerar procesos.

¿De dónde se obtienen los datos de los potenciales candidatos? A menudo, de los propios perfiles de sus redes sociales. No se trata únicamente, como suele pensarse, de que un comentario a destiempo pueda hacerte perder una oportunidad de empleo, sino de que se elaboren perfiles equivocados de ti que te impidan conseguir trabajo.

2. Despedido sin que tu jefe lo sepa

Es posible que el caso de Diallo se debiese a un error, pero es posible terminar en la calle porque un sistema automatizado, y no un humano, lo decida. El vídeo muestra, a partir de una investigación de ‘The Verge’, cómo un proceso de evaluación y despido se puede automatizar casi por completo “sin supervisión de los superiores”.

El sistema, por ejemplo, identificaba cuánto tiempo pasaba un empleado sin escanear un código de barras. En caso de que fuese muy largo, este era avisado y podía llegar a ser despedido. Según el informe de AI Now Institute, tres avisos en un día eran causa de despido.

P. ¿Qué ocurre cuando tu jefe es una máquina?

GEMA. Depende de cómo sea tu jefe en la realidad. A lo mejor tu jefe mola mucho, a lo mejor no. Pero no tiene entendimiento. No puedes llamar a un algoritmo y decirle que estás enfermo o indispuesto. Siempre se va a utilizar en tu contra: el algoritmo dice que has hecho esto, que no has hecho aquello. Imagina que tienes una cámara delante todo el rato grabándote. Eso termina influyendo en el rendimiento del trabajador.

P. ¿A peor?

G. La productividad tiene forma de campana. Al principio iría a mejor porque habría mucho control, pero llegaría un momento en el que los trabajadores reventarían.

Es un sistema semejante al que Percolata ofrece a cadenas como 7Eleven o Uniqlo, que instalan sensores dentro de sus tiendas para calcular la productividad de cada empleado y generar un 'ranking' con todos ellos. Como en 'La larga marcha' de Stephen King, el último es eliminado.

El 'software' desarrollado por IBM calcula cuándo se debe subir el sueldo a un empleado para evitar que se marche a la competencia

Y ¿quién decide cuánto cobras y por qué? ¿La mera voluntad de tus superiores? ¿Cómo hacerlo sin levantar suspicacias? La lucha por encontrar un sistema más justo de remuneración que recompense a los trabajadores y aumente la productividad de los empleados se encuentra detrás de sistemas como el desarrollado por IBM a partir de algoritmos Watson que, por ejemplo, llama la atención a los responsables de recursos humanos sobre cuánto debe ser la subida de sueldo de los trabajadores para evitar que se marchen a la competencia.

P. ¿Cómo se realizan estos cálculos de productividad?

G. Muchas veces, lo que se necesita es una regla de tres, no inteligencia artificial. Se cruza información respecto a funciones, horas de trabajo u objetivos. Entonces se introduce la inteligencia artificial para cuadrar todo eso, aunque no sería necesario.

Estos sistemas de ajuste de sueldo “imponen bajadas que no se pueden prever y dañan la estabilidad económica de las personas”

Un ejemplo es el LDP (Leading Dimensions Profiling) del Instituto OrdDev, que promete a sus clientes una mejora de un 35% en el rendimiento de los trabajadores. ¿Cómo funciona? “Midiendo los rasgos de los trabajadores que más rinde en la compañía frente a los de los potenciales candidatos, para ayudar a identificar quién encaja mejor en la organización”.

El informe de AI Now alerta contra estos sistemas, al recordar que los sistemas de ajuste de sueldos en función a algoritmos que suelen utilizarse en la ‘gig economy’ “imponen bajadas de sueldos algorítmicas que no se pueden prever y que dañan su estabilidad económica”.

3. Si te gusta el manga, has triunfado

Tienen nuestra información, y qué. Saben qué nos gusta, y qué. Conocen con quién alternamos o cuál es nuestro equipo, y qué. El uso de esta información –de mala calidad– es mucho menos inocente de lo que pensamos, ya que sirve para conformar perfiles que pueden terminar determinando, por ejemplo, si accedemos a un trabajo o no, como se explica en el vídeo.

En 'Armas de destrucción masiva', Cathy O'Neil utiliza el ejemplo de Gild, una 'startup' de Silicon Valley que recopila los datos sociales de cada trabajador a partir de millones de páginas web. En una entrevista, su científica jefa desvelaba que los mejores programadores que el sistema había identificado frecuentaban un foro sobre manga. Así que, a partir de ese momento, si alguien era usuario habitual de dicha página, tenía más posibilidades de ser contratado.

Si todos los casos de éxito son de hombres de 50 y tú eres una mujer de 30, ni aparecerás en la selección

P. ¿Cómo funciona?

GEMA. Disponen de bases de datos a las que se empiezan a añadir perfiles. La selección se realiza en función de ellos. Si ni tu perfil o ninguno parecido al tuyo está en esa base de datos, jamás vas a salir en el proceso. Imagina que eres una persona muy creativa con gran conocimiento, pero todos los casos de éxito anteriores han sido hombres de 50 y tú eres una mujer de 30. El algoritmo recomendará a un hombre de 50. Tú ni aparecerás.

P. ¿El algoritmo es machista, racista y edadista?

R. No. Si quien lo programa es machista, racista o edadista, será machista, racista o edadista. Si no lo es, al menos tendrá cuidado en ese aspecto. No depende de la máquina, sino de la persona que está detrás.

P. ¿Y qué personas están detrás?

R. Ingenieros. No vienen de las ciencias sociales, sino del entorno tecnológico.

P. ¿Por qué?

R. La robótica está ligada a la tecnología y la ingeniería. Cuando aparece la inteligencia artificial, que es transversal, cada sector lucha para quedarse con ella. Pero los ingenieros no están formados en humanidades. Solo tienen una opinión, que utilizan como conocimiento universal. Si un algoritmo tiene implicaciones sociales, necesitamos psicólogos, sociólogos y abogados.

Hay 'data brokers' que realizan sus propios perfiles para venderlos a bancos, aseguradoras o recursos humanos

A menudo, esos datos vienen servidos por grandes empresas como Facebook, como explica Manuela Battaglini, CEO de Transparent Internet.

PREGUNTA. ¿Cómo se realizan estos perfiles?

RESPUESTA. Muchos 'software' de contratación preguntan al candidato su nombre y apellidos. Lo relacionan con el perfil de LinkedIn y lo enriquecen. El problema es que ahí no está nuestro perfil totalmente detallado ni un algoritmo puede estimar la valía profesional a partir de nuestras redes sociales. Desde un punto de vista estadístico, es un error, porque son los datos menos certeros.

P. ¿Quiénes son los 'data brokers'?

R. Empresas que recopilan a mansalva nuestra información, tanto publicada por nosotros o por nuestros amigos acerca de nosotros, así como de otras aplicaciones como las de citas. Hay 'data brokers' en viajes, salud, trabajo, etc., que realizan sus propios perfiles para venderlos a bancos, aseguradoras, recursos humanos o incluso gobiernos.

4. Saben en qué estás pensando… ¿o no?

El sistema de reconocimiento facial de los aeropuertos permite a las autoridades saber quiénes somos. Pero ¿también lo que estamos sintiendo, pensamos o podemos hacer? Quizá en China, sí. Un programa del gobierno puso en marcha en el verano de 2017 el proyecto NGAIPD, que toma imágenes de los estudiantes para saber si miran a la pizarra, bostezan, levantan la vista del cuaderno o hablan con sus compañeros. Algo fácilmente trasladable al mundo laboral.

Los últimos sistemas de reconocimiento facial desarrollados por compañías como IBM, Amazon o Microsoft prometen ser capaces de identificar emociones. La Asociación de Psicólogos Americanos, claro, tiene algo que decir: en una larga revisión del sistema mostraban que esta clase de sistemas pueden identificar con exactitud, por ejemplo, un ceño fruncido, pero aún no pueden saber si ese gesto se debe a un sentimiento de furia, frustración, enfermedad… o un simple tic.

Lo que hacen estos sistemas es modelizar una única forma de ser, pero no todos expresamos los sentimientos de la misma manera

P. ¿Viviremos en 'Minority Report'?

R (Gema). Hoy todavía somos conscientes de que un pensamiento no tiene por qué ir ligado a una conducta. Si todo lo decide un algoritmo, podemos encontrarnos ante profecías autocumplidas. Si te meten miedo continuamente con que vas a hacer algo, puedes terminar creyendo que lo harás.

P. ¿Algún ejemplo?

R (Gema). Una persona que sufre algún tipo de problema respiratorio tiene un mal día, por lo que se altera fisiológicamente. Al mismo tiempo, un algoritmo asocia alteraciones fisiologicas como el sudor o las pulsaciones más rápidas con agresividad. Esa persona se cruza con alguien y dice algo fuera de tono. Todos esos factores se cruzan y asocian al individuo con una conducta delictiva de riesgo. Se elimina la libertad del pensamiento.

P. ¿La alegría es igual para todos?

R (Gema). No. Lo que hacen estos algoritmos es modelizar una única forma de ser.

Estas reservas han provocado que, por ejemplo, la Comisión Europea se plantee prohibir hasta cinco años el reconocimiento facial. Eso sí, en lugares públicos, no en entornos privados como entrevistas de trabajo.

EPÍLOGO. ¿Y si estamos exagerando?

En septiembre de 2018, Bell Wang, que trabajaba para iFlytek, una de las empresas chinas punteras en inteligencia artificial, dio la voz de alarma. No, la compañía no había conseguido desarrollar un sistema de reconocimiento de voz infalible, como hizo creer a los asistentes a una conferencia sobre tecnología en Shanghái. Era él detrás de la cortina, haciendo traducción simultánea.

La empresa había sido elegida como la sexta más innovadora en su campo por la revista del MIT el año anterior. Esta anécdota da pie a que el emprendedor Lance Ng se haga la pregunta que todos deberíamos hacer: ¿cuánto de lo que nos venden como inteligencia artificial existe y cuánto es pura ficción, un espejismo con un hombre detrás de la cortina como en 'El mago de Oz'? ¿Cuánto se ha avanzado y cuánto hay de humo para engordar rondas de financiación y encarecer acciones? En otras palabras, ¿debemos tener miedo a la IA feroz, o a las mentiras interesadas que se difunden sobre ella?

Tecnología

El redactor recomienda

Escribe un comentario... Respondiendo al comentario #1
1comentario
Por FechaMejor Valorados
Mostrar más comentarios