El Clínic usará IA para adelantarse al covid pero en realidad es una idea muy arriesgada
  1. Tecnología
Un proyecto prometedor pero arriesgado

El Clínic usará IA para adelantarse al covid pero en realidad es una idea muy arriesgada

El hospital catalán y el Barcelona Supercomputing Center han desarrollado una IA para predecir cómo evolucionarán los pacientes del coronavirus. Pero los expertos advierten: no todo vale

placeholder Foto: Pacientes covid en el Hospital Clínic de Barcelona. (Reuters)
Pacientes covid en el Hospital Clínic de Barcelona. (Reuters)

A estas alturas ya se puede afirmar sin miedo a equivocarse que la inteligencia artificial (IA) se ha hecho un hueco en nuestras vidas. Personaliza nuestras búsquedas en internet, nos delata ante las autoridades, como hacen los sistemas de reconocimiento facial en el metro de París con los que no llevan mascarilla, y ahora también predice cómo pasaremos el coronavirus.

El Hospital Clínic junto con el Centro de Supercomputación de Barcelona (BSC, por sus siglas en inglés) han desarrollado un algoritmo para predecir la evolución de los pacientes que ingresan por covid-19. ¿Cómo? A través del entrenamiento de redes neuronales con 3.051 episodios de covid de 2.440 pacientes que ingresaron durante la primera ola. Esto, en principio, ya es una buena noticia: nos encontramos ante un algoritmo nativo creado con fondos públicos para fines públicos y no uno comercial, vendido por una empresa. Pero hay que mirar más allá.

Foto: Un investigador trabaja en la vacuna contra el covid en el laboratorio de la farmacéutica china Sinovac Biotech. (Reuters)

El modelo 'aprende' de los datos —anonimizados debidamente— sobre el diagnóstico, el tratamiento y la evolución de los pacientes. Así es como la IA del Clínic saca sus propias conclusiones en modo de correlaciones y patrones que se utilizan para saber hacia dónde irán, clínicamente hablando, los que ingresan en el hospital durante esta segunda ola. Una forma diferente, original y puntera de intentar mejorar la situación de la pandemia, pero ¿es una buena idea?

Existen motivos para creer que el uso de la IA en salud es positivo. Mientras que el ojo humano es imperfecto, las decisiones de la máquina pueden complementar la experiencia del médico. "El algoritmo puede unir unos parámetros y hacer saltar una alarma para que el paciente pueda ser tratado antes", explica a Teknautas Javier Mendoza, médico y codirector del área de salud del Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA). También, al saber el porcentaje de pacientes que necesitaron UCI durante la primera ola, la IA ayudará a los hospitales a prepararse mejor. "Es muy útil para agilizar la reconversión de las plantas", añade.

placeholder La ministra de Industria, Reyes Maroto, en el Centro Nacional de Supercomputación. (Foto: EFE)
La ministra de Industria, Reyes Maroto, en el Centro Nacional de Supercomputación. (Foto: EFE)

Para sacar estos parámetros el algoritmo necesita grandes cantidades de datos, pero para que funcione correctamente la clave apunta más a la calidad que a la cantidad, como explica a este diario Rebekah Overdorf, investigadora y experta en aprendizaje automático en la Escuela Politécnica Superior de Lausanne, EPFL, (Suiza), que ha dedicado una serie de mensajes en su cuenta de Twitter a este caso. "De nada sirve que intentes predecir cómo va a evolucionar el precio de un modelo de coche tomando como referencia si los conductores beben o no beben café por la mañana", explica Overdorf. De ahí que los episodios de coronavirus tomados por el Clínic superen al número de pacientes.

¿Qué pasa con los riesgos?

Hasta aquí todo bien: la información anticipada nos ayuda a dar tratamiento temprano y a reorganizar los hospitales, pero no hay que olvidarse de los riesgos. Y de los límites de la IA. Un 'software' de inteligencia artificial, como el desarrollado por el Clínic, muestra parámetros y correlaciones, pero no la causalidad. Es decir, que mientras nos señala hacia dónde vamos no nos dice el por qué. Y esto es importante si queremos refinar nuestras herramientas. Además, necesitamos garantías de que el modelo es robusto; que no se vuelva menos preciso o se equivoque conforme aprende. Sobre todo, queremos poder fiarnos de la IA y que tome decisiones de manera transparente, como lo haría un médico.

Por definición un modelo es transparente si las decisiones que toma se pueden explicar e interpretar. "Las redes neuronales son muy precisas en tareas de reconocimiento, o tareas específicas, pero tienen naturaleza de caja negra", explica Overdorf. La caja negra es como se conoce dentro del gremio la estructura de una IA cuando no se puede explicar cómo el algoritmo ha tomado una decisión. "Si el modelo no es interpretable o no se pueden explicar las decisiones es difícil corregir los errores. Y queremos que nuestra inteligencia artificial aprenda de ellos. Es más, si no sabemos cómo se ha tomado la decisión no sabemos si ha sido una decisión sesgada", añade la experta en IA.

placeholder Hospital Clínic de Barcelona. (Foto: Reuters)
Hospital Clínic de Barcelona. (Foto: Reuters)

Abrir la caja es el reto por excelencia para avanzar en la rendición de cuentas. Si algo sale mal, ¿de quién es la culpa? ¿Del algoritmo que mostró la predicción o del médico que la validó? Este problema, casi filosófico, no tiene una solución fácil. "El algoritmo da la voz de alarma, el médico es el que al final valora al paciente", sentencia Mendoza.

Aun así, si no sabemos qué ha fallado y se toma el veredicto de la IA como fundamento para el diagnóstico, corremos el peligro no solo de no saber de nuevo de quién es la responsabilidad sino de no poder arreglar el fallo. "Y hay que ser extremadamente cautelosos con confiar de más en la IA", recuerda Overdorf, "sobre todo en aplicaciones críticas". Quizá por esto la medicina necesite un modelo de responsabilidad que se ajuste a lo digital además de nuevas herramientas.

Puede entonces que la apuesta de una IA nativa del Clínic con el BSC, que tiene intención de expandirse a otros hospitales, sea una buena noticia. Sin embargo, como mencionan los expertos, no se puede olvidar tener una visión crítica y vigilante ni tener en mente los grandes retos para asegurar un uso seguro, ético y transparente de algo que aún estamos descubriendo. Al fin y al cabo, no sería demasiado inteligente confiar más en una herramienta que en siglos de historia de la medicina y en los años de experiencia y formación de un médico humano.

Coronavirus Inteligencia Artificial Pandemia Noadex
El redactor recomienda