Es noticia
Ética legal y puntera: cómo aplicar la inteligencia artificial para mejorar la salud de los pacientes
  1. Tecnología
ENCUENTRO EC-EY

Ética legal y puntera: cómo aplicar la inteligencia artificial para mejorar la salud de los pacientes

Por su elevada protección, el sector sanitario será uno de los más sensibles para cumplir con la regulación europea sobre el uso de esta tecnología

En un momento en que la Comisión Europea prepara el marco jurídico que regulará los sistemas de inteligencia artificial (IA), uno de los servicios públicos más sensibles en la adopción de esta tecnología se enfrenta al reto de abordar todas sus implicaciones.

Por la elevada protección, confianza y seguridad que debe transmitir a la sociedad, el sector salud será uno de los más afectados por esta regulación, la cual establece diferentes niveles de riesgo (riesgo mínimo; riesgo medio/bajo; alto riesgo, y riesgo inaceptable o prohibido) para su uso. Lo que impactará en toda la cadena sanitaria: desde los proveedores de esta tecnología, equipos médicos y los investigadores hasta los facultativos y los pacientes.

El reglamento sobre IA, además, está directamente relacionado con la estrategia europea de datos. Sin datos que extraer o analizar, no hay posibilidad de aplicar la IA. Pero este ‘big data’ debe cumplir a su vez con criterios de privacidad y garantía, como los que establece el Reglamento Generación de Protección de Datos (RGDP).

Para analizar todas las implicaciones éticas, legales y tecnológicas que afronta la adopción de la IA en el sector salud, El Confidencial y EY organizaron el debate ‘Retos jurídicos de la inteligencia artificial en el sector de la salud’. En esta conferencia, la tercera de un ciclo que aborda el uso de las nuevas tecnologías en el campo sanitario, participaron Pablo Crespo, 'chief operating officer' en la Federación Española de Empresas de Tecnología Sanitaria (Fenin); Pablo Sierra, 'legal senior director, head of' Legal Iberia en Takeda; Elisenda Pareja, Country Ethics, Risk & Compliance en Novartis; Blanca Escribano, socia de EY Abogados y líder del área de Derecho Digital en EY España, y Luis Ques, socio del área de Derecho Público y Sectores Regulados de EY Abogados.

placeholder Mesa redonda 'Retos jurídicos de la inteligencia artificial en el sector de la salud'.
Mesa redonda 'Retos jurídicos de la inteligencia artificial en el sector de la salud'.

Mientras que en los debates anteriores el panel de expertos analizó ‘Cómo el big data y la IA pueden mejorar la sostenibilidad del sistema sanitario’ y el cambio de estructura que implica el uso de modelos predictivos en el sector salud, en esta ocasión las implicaciones legales y éticas de la inteligencia artificial y su desarrollo tecnológico ocuparon el centro de la discusión.

Para Escribano, el primer borrador publicado en abril del año pasado por la Comisión Europea (Ley de Inteligencia Artificial) dota a esta regulación de un “carácter horizontal, con obligaciones importantes para todos los sectores e implicados en el uso de este tipo de tecnología dependiendo del riesgo que suponga en cada caso”.

La responsable del área de Derecho Digital en EY España puso como ejemplo los dispositivos médicos, que “serán considerados de alto riesgo, y por lo tanto van a tener que contar con certificados de conformidad. La regulación prevé sanciones elevadísimas por incumplimiento, especialmente en estos sectores”, apuntó. “Para que la inteligencia artificial pueda aportar al sector salud todos sus beneficios, es muy importante que sea confiable desde un punto de vista ético y legal, pero sin comprometer su desarrollo tecnológico. Es fundamental el desarrollo de una regulación que pueda garantizar un nivel de confianza suficiente”, agregó Escribano.

"La IA tiene que ser confiable desde un punto de vista ético y legal, pero sin comprometer su desarrollo tecnológico" (Escribano)

El uso de modelos de IA en el sector salud podría marcar grandes diferencias para acelerar el diagnóstico de enfermedades, seguimientos en la evolución de los pacientes, investigar nuevas moléculas y desarrollar fármacos, entre otros avances. Sin embargo, “al tratarse de datos especialmente protegidos, la regulación va a situar su implementación en un nivel muy alto”, afirmó Pareja. La Country Ethics, Risk & Compliance en Novartis dijo que esto “supondrá un reto en la gobernanza interna” de las empresas, como las farmacéuticas, las cuales deberán aterrizar “todos estos principios [éticos y legales] a sus operaciones para que la IA se implemente de manera responsable y transparente”.

“¿Cómo diseñamos estos modelos? ¿Cómo los revisamos y los monitorizamos para que no incluyan sesgos de raza, de género y evitar discriminaciones? Para ello, es importante que nuestras estructuras internas sean ágiles y poder corregir lo que no funciona, así como formar a todos los empleados en temas de dilemas éticos, a los que no estamos tan acostumbrados”, añadió Pareja.

placeholder De izquierda a derecha: Pablo Crespo (Federación Española de Empresas de Tecnología Sanitaria); Pablo Sierra (Takeda), y Elisenda Pareja (Novartis).
De izquierda a derecha: Pablo Crespo (Federación Española de Empresas de Tecnología Sanitaria); Pablo Sierra (Takeda), y Elisenda Pareja (Novartis).

Además de estos aspectos éticos, legales y tecnológicos que afectarán al desarrollo de esta tecnología en el sector sanitario, algunos de los expertos subrayaron la necesidad de que la nueva regulación aporte seguridad y estabilidad. “En primer lugar, la Ley de Inteligencia Artificial, por el propio entramado de la Unión Europea, va con retraso, lo que nos crea cierta inseguridad a las compañías para tomar decisiones. En segundo lugar, esta nueva regulación se sumará a todo el anclaje normativo que existe actualmente en el ámbito sanitario, el cual es un sector hiperregulado, y previsiblemente modificará algunas piezas de este puzle. Y en tercer lugar, su regulación plantea dudas sobre la responsabilidad patrimonial de la compañías en el uso de la IA, e incluso su propiedad intelectual”, señaló Sierra.

Ética y gobernanza

El 'legal senior director, head of' Legal Iberia en Takeda puso como ejemplo “el nuevo código de conducta para la investigación clínica y la farmacovigilancia aprobado por la Agencia Española de Protección de Datos (AEPD). Cuando se aplican nuevas normas a un ámbito tan especial, como el sanitario, las piezas del puzle cambian y tenemos que volver a posicionarnos”. Sobre el encaje legal de esta regulación y el uso de la IA en el sector salud, Crespo agregó que “la prioridad debe ser la seguridad. Lo primero es no dañar al paciente. Lo segundo, que le beneficie en un entorno de máxima ética y compromiso por parte de todos los agentes del sistema”.

El 'chief operating officer' de la Federación Española de Empresas de Tecnología Sanitaria (Fenin) dijo que “la implantación de estas tecnologías puede ayudar a mejorar la sostenibilidad del sistema sanitario, pero para ello necesitamos seguridad jurídica y un marco jurídico y ético claro en todos los ámbitos”.

Además de los sesgos y las discriminaciones, el campo de la ética es el que mayor número de interrogantes plantea por la aplicación de una tecnología tan disruptiva, capaz de interactuar con las personas. Entre los algoritmos inteligentes de alto riesgo, la UE destaca —por ejemplo— su uso en la contratación y promoción de empleados; evaluación de la solvencia económica de familias o empresas; dispositivos en los vehículos o en los juguetes y videojuegos, entre muchos otros.

"La tecnología puede ayudar a mejorar la sostenibilidad del sistema sanitario, pero necesitamos un marco jurídico" (Crespo)

En el ámbito sanitario, “la Organización Mundial de la Salud (OMS) publicó el año pasado un documento de ética y gobernanza en el que se fijan una serie de principios generales, pero hay que darle un mayor grado de comprensión sobre lo que se debe y lo que no se debe hacer”, apuntó Crespo. Para lograr este equilibrio entre el desarrollo tecnológico y la parte ética-legal de su uso, Ques consideró necesaria “cierta audacia” por parte de los organismos europeos para “no frenar un avance que puede tener un gran impacto en la calidad de vida de muchas personas”.

En concreto, el socio del área de Derecho Público y Sectores Regulados de EY Abogados identificó “el régimen de responsabilidades” como uno de los principales frenos que podrían retrasar los principales avances en el campo de la IA. “Es necesario que las empresas que desarrollen esta actividad efectivamente garanticen la seguridad a los pacientes, pero también debe tenerse en cuenta la importancia de anticipar la innovación. Si se incluye un régimen de responsabilidad demasiado estricto, se puede incurrir en el coste de demorar esta innovación, y es precisamente lo que se debe evitar”, explicó Ques.

placeholder Blanca Escribano (EY) y Luis Ques (EY).
Blanca Escribano (EY) y Luis Ques (EY).

Con lo que será una de las primeras legislaciones del mundo sobre el uso de la inteligencia artificial, la Comisión Europea intentará encontrar este equilibrio entre la protección a sus ciudadanos y el desarrollo y la innovación de este tipo de algoritmos. En juego también está la competitividad tecnológica del mercado europeo frente a otros países, como Estados Unidos y China.

A pesar del desafío, Escribano se mostró positiva con la experiencia de la Unión Europea en legislar este tipo de ámbitos tan sensibles. “La iniciativa de Protección de Datos Personales en Europa se ha convertido casi en un estándar internacional. Si se atajan los riesgos, los productos europeos y sus fármacos generarán mayor confianza en todos los mercados y eso solo puede beneficiar al sector. Lo que tiene que lograr esta regulación es transmitir esa confianza a todos los actores”, dijo la responsable del área de Derecho Digital en EY España.

"La IA y la digitalización de la sanidad permitirán otorgar un mayor protagonismo al paciente en su cuidado y prevención" (Ques)

En esta carrera para liderar su desarrollo, Pareja puso como ejemplo los problemas que plantea el uso de algunas tecnologías asociadas a los algoritmos inteligentes, como el `machine learning´, la cual “no será apta para monitorizar y resolver los dilemas que tenemos en el sector en temas de salud. Para algunas decisiones, no va ser posible usar determinadas herramientas”.

Sin embargo, la digitalización de algunos servicios sanitarios permitirá redefinir el rol del paciente, quien podría convertirse en un sujeto activo para tomar mejores decisiones de su propia salud. “Siempre hemos hablado del paciente como un sujeto que necesita protección, pero la IA y la digitalización de la sanidad permitirían otorgar un mayor protagonismo al paciente en su cuidado y prevención. Esta faceta está más descuidada, ahora la normativa se centra en su protección”, señaló Ques sobre la necesidad de que el nuevo reglamento aporte estos nuevos enfoques.

En este aspecto, el COO de Fenin citó a los diabéticos y los invidentes como ejemplos de pacientes acostumbrados a los dispositivos e innovaciones tecnológicas para monitorizar la salud y mejorar su independencia. “Cada vez tenemos pacientes más digitales. Vamos a conseguir mejorar los tratamientos para que sean mucho más personalizados, lo que ayudará a la equidad y la igualdad del sistema”, añadió.

En un momento en que la Comisión Europea prepara el marco jurídico que regulará los sistemas de inteligencia artificial (IA), uno de los servicios públicos más sensibles en la adopción de esta tecnología se enfrenta al reto de abordar todas sus implicaciones.

Inteligencia Artificial Big Data Eventos EC Salud
El redactor recomienda