Es noticia
La Seguridad Social usa una IA secreta para rastrear bajas laborales y cazar fraudes
  1. Tecnología
Tu prestación depende de este 'software'

La Seguridad Social usa una IA secreta para rastrear bajas laborales y cazar fraudes

Desde 2018, la Seguridad Social utiliza una inteligencia artificial para gestionar las bajas laborales. Una investigación de Lighthouse Reports y El Confidencial revela los detalles de un sistema predictivo sobre el que apenas hay información

Foto: EC Diseño.
EC Diseño.

Usted no lo sabe, pero si ha solicitado una baja laboral durante los últimos cinco años, un algoritmo de inteligencia artificial (IA) ha estado puntuando cada día su estado de salud. La Seguridad Social utiliza en toda España esta herramienta predictiva para tratar de adivinar algo muy complejo: la probabilidad de que una persona de baja esté lista o no para volver a su trabajo.

El algoritmo determina qué expedientes de baja revisarán primero los médicos inspectores del Instituto Nacional de la Seguridad Social (INSS) y cuáles dejarán para el final. Se trata de un sofisticado programa informático que define el orden en que cada trabajador deberá visitar a un facultativo para saber si puede seguir cobrando el subsidio. El sistema identifica quién debería estar de vuelta en su empleo, y si no se ha tramitado ya el alta, señala el expediente como un posible caso de fraude.

De este algoritmo y de su capacidad de predicción depende en parte el derecho de un trabajador de baja a seguir recibiendo su prestación. Pero también el buen funcionamiento de la inspección de bajas del INSS: si el software identifica erróneamente un posible caso de fraude, esto puede suponer un gasto de tiempo y recursos en balde para los profesionales de la institución.

Esta serie ha sido producida en colaboración con la Red de Rendición de Cuentas sobre AI del Centro Pulitzer.

Una investigación de varios meses de Lighthouse Reports y El Confidencial revela ahora detalles de una herramienta integrada en las tripas de la Seguridad Social y sobre la que apenas existe información pública. Varios documentos obtenidos en exclusiva muestran también por primera vez cómo funciona, los factores que tiene en cuenta para puntuar cada expediente de baja y su nivel de fiabilidad. Múltiples expertos consultados destacan la opacidad de este proyecto y se muestran escépticos sobre la precisión de los algoritmos, según la información a la que se ha tenido acceso.

El origen del Modelo de Priorización de Citas, nombre con el que se conoce el sistema dentro del Ministerio de Seguridad Social, se remonta a 2014. Ese año, el Gobierno adquirió un paquete de software a la multinacional SAS Institute por 1,5 millones de euros. La compra consistió en varias herramientas para "el estudio de patrones de comportamiento y fraude" con destino a la Gerencia de Informática de la Seguridad Social (GISS).

Foto: EC Diseño.
TE PUEDE INTERESAR
"Estamos cerca del colapso": así introdujo el INSS algoritmos para puntuar empleados de baja
Pablo Jiménez Arandia Javier G. Jorrín Marta Ley Infografía: Rocío Márquez

Poco después, la Seguridad Social empezó a trabajar con ViewNext, una subsidiaria de IBM en España especializada en inteligencia artificial y big data. El ministerio con mayor presupuesto del Gobierno español comenzaba así un proyecto de renovación tecnológica interna con un fin ambicioso: usar los millones de datos en su poder de los contribuyentes no solo para gestionar prestaciones públicas, sino también para predecir situaciones o conductas de los ciudadanos.

En la práctica, este modelo se divide en dos algoritmos. El primero (denominado Primeras Citas) analiza todos los expedientes de baja por incapacidad temporal (IT) que todavía no han sido revisados por un médico inspector del INSS. El segundo (Citas Sucesivas) hace lo mismo con las bajas sobre las que ya hay un diagnóstico médico.

"Los médicos inspectores del INSS tienen una aplicación en la cual se inserta el análisis realizado con el programa informático", explica un alto cargo de la GISS directamente implicado en el desarrollo del proyecto y que pide mantener su anonimato. El resultado de ambos algoritmos es una puntuación entre 0 y 1. Cuanto más se acerque a 1 este valor, más probable es, según sus creadores, que la persona de baja esté lista para volver al trabajo.

El Modelo de Priorización de Citas usa datos personales de cada trabajador, como su sexo, edad, lugar de residencia e historial de bajas médicas. También, en algunos casos, el diagnóstico que ha hecho un facultativo sobre su enfermedad. Basándose en estos criterios, la inteligencia artificial puntúa cada expediente. Sin embargo, entre los resultados que ofrece el sistema y la realidad de cada paciente hay un enorme trecho.

"Ejemplo de mala praxis"

Albert Sabater, director del Observatorio de Ética en Inteligencia Artificial de Cataluña (OEIAC) y profesor de la Universidad de Girona, califica de "ejemplo de mala praxis" la manera en que el Ministerio de la Seguridad Social ha desarrollado y desplegado este sistema. "La Administración contratando o subcontratando una empresa sin ningún tipo de consulta y sin abrir los procesos y personas implicadas. Esto se debería solucionar con mayor transparencia", señala.

placeholder José Luis Escrivá, ministro de Inclusión, Seguridad Social y Migraciones, cartera de la que en última instancia depende el proyecto del Modelo de Priorización de Citas. (EFE)
José Luis Escrivá, ministro de Inclusión, Seguridad Social y Migraciones, cartera de la que en última instancia depende el proyecto del Modelo de Priorización de Citas. (EFE)

Ana Valdivia, investigadora del King’s College de Londres y profesora de IA, Gobernanza y Políticas en el Oxford Internet Institute (OII), a quien también se han mostrado los resultados de la investigación, describe los algoritmos como "pobres" y "desbalanceados", según la evaluación interna a la que se ha tenido acceso.

Entrevistas en profundidad con siete médicos inspectores en contacto directo con la herramienta (todos ellos han hablado con la condición de no revelar su identidad) cuestionan la utilidad de este ambicioso proyecto. "Es un programa opaco. Fíjate que los que estamos todos los días trabajando con él no somos capaces de explicar qué es", reconoce un facultativo del INSS con más de 15 años de experiencia. "Es una herramienta que nos vendieron como la panacea, pero sigo sin tener claro qué tiene dentro".

"¿La utilidad del sistema? Sería más útil si tuviéramos a más médicos. Porque estamos en mínimos", advierte otro facultativo entrevistado, jefe de una unidad médica. Ni este ni el resto de testimonios recogidos han sido capaces de describir de forma precisa cuál es el funcionamiento interno del Modelo de Priorización de Citas.

Se desconoce el tipo de datos con que el sistema ha sido entrenado. Es un aspecto clave para averiguar si los algoritmos podrían estar discriminando a algún colectivo

La forma en que el Ministerio de Seguridad Social ha desarrollado este proyecto, que afecta al acceso de los ciudadanos a una prestación pública, va en contra, según fuentes consultadas, de las guías para un uso responsable de la inteligencia artificial en el sector público.

"Cualquier proyecto utilizado por la Administración para perfilar ciudadanos y destinar recursos públicos debería tener, al menos, una evaluación rigurosa del sistema. No sobre lo que hacen los algoritmos, sino cómo están implantados y cómo se utilizan", apunta Manuel Portela, investigador sobre justicia algorítmica y ética de los datos en la Universitat Pompeu Fabra (UPF).

A través de una solicitud de información pública amparada por la Ley de Transparencia, Lighthouse Reports y El Confidencial han accedido a varios detalles técnicos del sistema. Sabemos algunos de los factores que los algoritmos tienen en cuenta en su cálculo, pero se desconocen otros aspectos clave, como la importancia que tiene cada uno en la obtención de las puntuaciones finales. El ministerio no ha accedido a compartir esa información. Desde ViewNext, tampoco se ha querido facilitar ningún detalle.

Se desconoce además el tipo de datos con que el sistema ha sido entrenado. Es un aspecto clave para averiguar si los algoritmos podrían estar discriminando a algún colectivo, una de las grandes preocupaciones en el campo del aprendizaje automático. Y otra incógnita: ¿se están tratando esos datos médicos, considerados legalmente sensibles, bajo los criterios exigidos por la ley de protección de datos? ¿Se ha realizado alguna evaluación que garantice que su uso está siendo proporcional? El ministerio tampoco ha querido aclararlo.

Foto: EC Diseño.
TE PUEDE INTERESAR
Preguntas sin respuesta sobre el sistema predictivo de la Seguridad Social
Pablo Jiménez Arandia Infografía: Rocío Márquez

Lighthouse Reports y El Confidencial han contactado también con la Secretaría de Estado de Digitalización e Inteligencia Artificial (Sedia). Este órgano, dependiente del Ministerio de Economía y Transformación Digital y dirigido por Carme Artigas, es el máximo responsable de las políticas digitales del Ejecutivo. Entre sus funciones, está velar por un uso adecuado de la inteligencia artificial. La Sedia, sin embargo, tampoco ha respondido a nuestros requerimientos de información.

La falta de transparencia no es el único inconveniente en este megaproyecto. Los propios usuarios del sistema (los médicos inspectores) y el alto cargo del INSS consultado reconocen otro problema más preocupante: los fallos y la imprecisión de los algoritmos.

"Los modelos no son precisos", apunta este funcionario, que pide no publicar su nombre. De hecho, la propia complejidad de las enfermedades que justifican este tipo de bajas dificulta que lo sean, admite esta fuente. "Hay muchas tipologías en la incapacidad temporal. ¿Cuáles son las causas más habituales de una baja? Los catarros, las molestias intestinales o las enfermedades de salud mental. También lumbalgias y cervicalgias. Todas son difíciles de valorar. Nos encontramos con dos personas iguales que con un mismo diagnóstico tienen un comportamiento distinto".

placeholder Una paciente con covid persistente, en su domicilio. Tras la pandemia, el gasto de fondos públicos en bajas laborales se ha disparado. En 2021, supuso casi 12.500 millones de euros, mientras que en 2022 superó los 13.600 millones, según datos de la Seguridad Social. (EFE)
Una paciente con covid persistente, en su domicilio. Tras la pandemia, el gasto de fondos públicos en bajas laborales se ha disparado. En 2021, supuso casi 12.500 millones de euros, mientras que en 2022 superó los 13.600 millones, según datos de la Seguridad Social. (EFE)

Preguntada sobre cuál es el objetivo último del sistema, esta fuente de alto nivel reconoce la necesidad que existe de detectar a trabajadores que tratan de alargar su baja más de la cuenta de forma fraudulenta. "No nos gusta hablar de fraude. Este es un negocio muy complejo, pero ante una debilidad del sistema hay que actuar". La información de la que disponemos, sin embargo, plantea muchas dudas sobre si esta tecnología ayuda de algún modo a atajar estos abusos.

Variables confusas y un algoritmo "pobre"

Para entender un algoritmo y las decisiones que toma, es básico conocer qué factores tiene en cuenta (y la importancia de cada uno) a la hora de realizar los cálculos. Desde el Ministerio de la Seguridad Social, a preguntas de Lighthouse Reports y El Confidencial, se negaron inicialmente a compartir esta información.

Solo meses después, mediante una petición a través del Portal de Transparencia, el ministerio facilitó una lista de las variables usadas acompañada de una descripción incompleta sobre los factores que esta IA tiene en cuenta. Sin embargo, la información entregada no permite conocer con exactitud el origen y la naturaleza de estos datos.

Otro de los documentos a los que se ha tenido acceso es una evaluación interna de la GISS del Modelo de Priorización de Citas con fecha desconocida. En este estudio, se incluyen dos ratios muy comunes en la analítica avanzada de datos: la sensibilidad o proporción de los casos positivos correctamente identificados por el algoritmo y la especificidad, que hace lo propio con los casos negativos.

El ministerio probó este modelo con 337 expedientes de baja que acabaron convirtiéndose en alta. De ellos, el algoritmo Primeras Citas logró acertar 220 de los casos (sensibilidad del 65,28%), pero falló en 117. El análisis de expedientes que permanecieron como baja incluyó 1.540 casos y el algoritmo solo fue capaz de pronosticar correctamente 386 de ellos (especificidad del 25,06%).

La investigadora Ana Valdivia califica estos algoritmos de "bastante pobres", especialmente para ser implementados en "un contexto como el de la Seguridad Social". "Esa tasa de verdaderos positivos del 65%, que mide cómo de bien es capaz de calcular las altas, es muy baja para un algoritmo instaurado en la vida real. La tasa de verdaderos negativos del 25% también la podríamos considerar baja. Normalmente, quieres que estas tasas estén por encima del 70% o el 75%", explica.

En el modelo Citas Sucesivas, se analizaron apenas 78 expedientes que acabaron en alta. El algoritmo acertó 63 de ellos (sensibilidad del 80,77%) y falló 15. Las no altas analizadas fueron 609 y de ellas el programa acertó 487 (especificidad del 79,97%).

Otro factor que llama la atención de esta investigadora es la base de datos utilizada para el análisis: 337 expedientes que acabaron en alta y 1.349 que no lo hicieron. "En ciencia de datos, esto se considera un conjunto de datos desbalanceado. Tienes mucho de una clase y muy poco de otra".

Valdivia advierte del riesgo de que este desequilibrio se haya repetido con los datos usados para entrenar a ambos algoritmos. En ese caso, al puntuar cada expediente, los algoritmos analizarán muy bien la clase de datos mayoritaria (las no altas), donde encontrarán muchos patrones, y mucho peor la minoritaria (las altas). "Los algoritmos funcionan bien cuando tus bases de datos, las dos clases que tienes, en este caso altas y no altas, están equilibradas. Y aquí no lo están", remata.

¿Un sistema desactualizado e ineficiente?

La pandemia del covid-19 truncó los planes de la Seguridad Social para el Modelo de Priorización de Citas. Los algoritmos de aprendizaje automático necesitan ser entrenados de manera intensiva para mejorar su precisión. Los médicos del INSS consultados explican, sin embargo, que estos sistemas predictivos han estado prácticamente metidos en un cajón durante dos años. Pese a ello, siguen vigentes y en uso a día de hoy.

"Hablamos de un sistema que aprende y se nutre de la experiencia al que se ha dejado dos años sin entrenamiento. Es un problema, porque se detiene su crecimiento, se nos va a quedar bajito", señala el jefe de una unidad médica en el norte de España.

Otro obstáculo tiene que ver con cómo el sistema sanitario español ha cambiado desde el año 2020. "Lo que hay que meterle en la cabeza ahora al algoritmo es que los servicios de salud están prácticamente paralizados y las listas de espera casi duplican las que existían antes de la pandemia", apunta este profesional.

Varios médicos entrevistados a finales de 2022 señalan cómo en los últimos meses, poco a poco, se ha ido retomando el uso de este sistema. Pero arrojan las mismas dudas sobre la precisión del mismo y su reflejo de la realidad sanitaria actual en España. "Tú ahora te dejas guiar por esta herramienta y, si no aplicas un factor de corrección como puede ser una lista de espera quirúrgica, te encuentras que procesos marcados como resueltos por el sistema no lo están", advierte uno de los jefes de unidad médica consultados.

En definitiva, la información obtenida en esta investigación deja en el aire muchas incógnitas sobre cómo la Seguridad Social está usando la inteligencia artificial para predecir y atajar algo tan complejo y delicado como el fraude en las bajas laborales. ¿Están los algoritmos cometiendo errores que pueden provocar que un trabajador pierda el acceso a una prestación a la que tiene derecho? Ahora mismo, solo los funcionarios y responsables del INSS lo saben a ciencia cierta. Los casi un millón de empleados que en España dependen de esta prestación cada año esperan una respuesta.

Usted no lo sabe, pero si ha solicitado una baja laboral durante los últimos cinco años, un algoritmo de inteligencia artificial (IA) ha estado puntuando cada día su estado de salud. La Seguridad Social utiliza en toda España esta herramienta predictiva para tratar de adivinar algo muy complejo: la probabilidad de que una persona de baja esté lista o no para volver a su trabajo.

Inteligencia Artificial Lo mejor de EC
El redactor recomienda