El informático cordobés que convierte las máquinas en doctores que (casi) nunca fallan
El investigador Víctor Manuel Vargas lleva años intentando que la IA no solo emule la capacidad diagnóstica de un médico, sino que también piense como pensamos nosotros: con matices, dudas, y grados de confianza
El investigador Víctor Manuel Vargas Yun. (Fundación BBVA)
Un error en el diagnóstico médico puede tener efectos tan devastadores como una mala praxis. Por supuesto, no es lo mismo confundir un resfriado con una neumonía que pasar por alto un tumor en fase inicial, pero en todos los casos el resultado es doblemente perjudicial: deteriora la salud del paciente y despilfarra recursos que el sistema no puede permitirse perder.
El ejemplo más reciente lo estamos viendo en Andalucía, donde un reciente fallo en la gestión de pruebas diagnósticas en el que no se informó al menos a 2.000 mujeres de que podían estar sufriendo cáncer de mama, ha puesto al descubierto un problema creciente: la sanidad pública demanda no solo diagnósticos más rápidos, sino, sobre todo, diagnósticos más precisos. Y aquí es donde la inteligencia artificial puede cambiar las reglas del juego.
Uno de los investigadores españoles que más ha avanzado en este campo es Víctor Manuel Vargas Yun (Pozoblanco, Córdoba, 1996), que acaba de ser reconocido con uno de los Premios a Investigadores Jóvenes en Informática 2025, otorgados por la Sociedad Científica Informática de España (SCIE) y la Fundación BBVA. Su trabajo busca algo muy concreto: enseñar a los algoritmos a cometer menos errores en el diagnóstico médico por imagen.
“Mi investigación trata de minimizar los errores de la inteligencia artificial en el diagnóstico médico para evitar que un paciente sano pueda ser clasificado como muy grave, o al revés”, explica Vargas. Lo que propone va más allá de la clasificación binaria tradicional (enfermo o sano): su campo es la clasificación ordinal, una metodología capaz de distinguir no solo la presencia de una enfermedad, sino su nivel de gravedad. Es decir, su modelo no solo identifica si hay neumonía, sino si se encuentra en fase leve, moderada o severa. Este tipo de precisión no es un detalle técnico: puede marcar la diferencia entre una intervención a tiempo o una complicación irreversible.
Ana SomavillaMartina Bozukova (Mediapool. Bulgaria)Petr Jedlička (Denik Referendum. República Checa)Eva Papadopoulou (Efsyn. Grecia)
El problema de muchos sistemas actuales de IA médica es que no comprenden las zonas grises. Funcionan con certezas binarias y, en un entorno clínico, esa rigidez puede resultar peligrosa. Vargas desarrolla modelos de aprendizaje profundo que aprenden jerarquías, no solo etiquetas. Así, el algoritmo “entiende” que una imagen de cáncer en estadio II está más cerca de una de estadio III que de una completamente sana. “El objetivo es reducir los errores más costosos” —afirma—. “No todos los errores son iguales. Clasificar un leve como grave tiene consecuencias psicológicas, económicas y médicas muy distintas a confundir un leve con un moderado”.
Otro de los frentes de su investigación es la explicabilidad: que los modelos no sean cajas negras. Que pueda entenderse, al menos en parte, por qué ha llegado a una determinada conclusión. No basta con conocer qué categoría asigna el modelo, sino también en qué se ha basado para hacerlo. En el caso de los modelos de aprendizaje profundo con los que trabaja Vargas, esa tarea es mucho más compleja. En un modelo lineal bastaría con examinar los coeficientes de la ecuación para saber cuánto influye cada variable en el resultado. Pero en los profundos, que manejan millones de parámetros y procesan imágenes donde las variables son píxeles, esa transparencia se pierde.
Radiografía de un paciente. La IA cada vez ayuda a más profesionales en el diagnóstico por la imagen. (Reuters)
Por eso, se emplean técnicas que permiten interpretar las decisiones a posteriori, sin necesidad de acceder al funcionamiento interno del modelo. En el ámbito del diagnóstico por imagen, por ejemplo, existen metodologías capaces de mostrar qué zonas han influido más en la decisión final. En uno de sus proyectos, centrado en imágenes cerebrales en 3D para detectar daños neurológicos asociados al párkinson, este enfoque resultó especialmente valioso. Saber en qué áreas del cerebro se ha fijado el modelo permite a los médicos contrastar su propio juicio con el de la máquina. Y cuando ambas miradas coinciden, la confianza en la decisión aumenta de forma considerable.
El reto, añade Vargas, es especialmente grande en biomedicina, donde los conjuntos de datos suelen ser pequeños y desbalanceados. “No trabajamos con millones de imágenes como en otros campos. En sanidad, los datos son escasos, sensibles y heterogéneos. Hacer que un modelo aprenda bien con pocos ejemplos es, en sí mismo, un desafío técnico”.
"Entender el código de la realidad"
Desde niño, Vargas tuvo la intuición de que los ordenadores eran una prolongación del pensamiento humano. “Siempre me ha fascinado que, con unas líneas de código, pudiera construir casi cualquier cosa”, recuerda. Esa curiosidad lo condujo a especializarse en inteligencia artificial aplicada, un terreno donde la informática se convierte en una herramienta para resolver problemas reales: “desde los móviles que todos llevamos en el bolsillo hasta los sistemas que gestionan hospitales, transporte o energía”.
Su visión, sin embargo, es prudente. Todo modelo de inteligencia artificial aprende a partir de los datos que le proporciona un experto humano. En el ámbito médico, eso significa que los algoritmos se entrenan con información previamente etiquetada por médicos. Si esas etiquetas contienen errores, el modelo los reproducirá. Además, la calidad del entrenamiento depende también de la cantidad y la diversidad de los datos. Un conjunto insuficiente o poco representativo puede hacer que el sistema falle ante casos poco comunes o mal contemplados.
El investigador Víctor Manuel Vargas Yun. (Fundación BBVA)
Por consiguiente, la inteligencia artificial debe concebirse como una herramienta de apoyo, no como un reemplazo del criterio clínico. La tecnología puede procesar millones de datos, detectar patrones invisibles para el ojo humano y reducir el margen de error, pero carece de contexto, empatía y comprensión moral. En medicina, esas cualidades no son accesorios: son el núcleo mismo del juicio. Por ello, la verdadera revolución no consiste en delegar decisiones en la máquina, sino en aprender a pensar mejor con ella.
Incluso, más allá de los errores técnicos, Vargas advierte sobre algo todavía más delicado: la responsabilidad. Si un modelo se equivoca y el coste del error es alto (ya sea humano, económico o ético), surge la pregunta de quién debe asumirlo. Por eso defiende una vez más que la inteligencia artificial no debe tomar decisiones médicas de forma autónoma. Debe ofrecer una segunda opinión que complemente, pero nunca sustituya, la del profesional.
La carrera por el diagnóstico perfecto
El trabajo de Vargas se enmarca en un auge global de proyectos que buscan diagnósticos automáticos más rápidos, explicables y éticos. Google y su filial DeepMind llevan años desarrollando algoritmos capaces de detectar retinopatías o cánceres de mama con una precisión comparable a la humana. En España, iniciativas del Instituto de Investigación Biomédica de Barcelona (IRB) y del CIMA Universidad de Navarra emplean inteligencia artificial para anticipar metástasis y descubrir nuevos biomarcadores a partir de datos genómicos y epigenéticos.
Pero la línea de investigación de Vargas introduce algo distinto: no aspira solo emular la capacidad diagnóstica del médico, sino dotar a la máquina de una noción graduada de la incertidumbre. En cierto modo, intenta enseñar al algoritmo a pensar como pensamos nosotros: con matices, con dudas, con grados de confianza.
No aspira solo emular la capacidad diagnóstica del médico, sino dotar a la máquina de una noción graduada de la incertidumbre
Esa tendencia se extiende también al terreno más básico de la biomedicina. Hace solo unos días, Google y la Universidad de Yale anunciaron que el modelo C2S‑Scale 27B, entrenado con datos biológicos, había generado una hipótesis inédita sobre el comportamiento celular del cáncer, posteriormente validada en laboratorio. Es un ejemplo de cómo la IA ya no solo ayuda a diagnosticar, sino que empieza a formular hipótesis científicas propias, revelando relaciones biológicas que podrían acelerar el desarrollo de terapias y tratamientos.
En suma, en un contexto donde cada error puede alterar una vida, la propuesta de Vargas (y la de tantos investigadores) conecta con una idea más amplia: la necesidad de una inteligencia artificial que no solo acierte, sino que comprenda. Porque diagnosticar no consiste solo en reconocer patrones, sino en interpretar lo que esos patrones significan para alguien concreto, en un momento concreto.
Un error en el diagnóstico médico puede tener efectos tan devastadores como una mala praxis. Por supuesto, no es lo mismo confundir un resfriado con una neumonía que pasar por alto un tumor en fase inicial, pero en todos los casos el resultado es doblemente perjudicial: deteriora la salud del paciente y despilfarra recursos que el sistema no puede permitirse perder.