Es noticia
Tres meses envenenándose a sí mismo porque se lo dijo ChatGPT: ¿dejarías tu salud en manos de la IA?
  1. Salud
¿dónde está el límite?

Tres meses envenenándose a sí mismo porque se lo dijo ChatGPT: ¿dejarías tu salud en manos de la IA?

La versión salud de ChatGPT ya ha aterrizado en muchos países. Aunque, por el momento, no ha llegado a España, la herramienta ya está generando debate

Foto: Un hombre usando ChatGPT. (Pexels)
Un hombre usando ChatGPT. (Pexels)
EC EXCLUSIVO

Llega un hombre a las urgencias de un hospital. Tiene 60 años y está preocupado porque cree que su vecino le está envenenando, los profesionales que le atienden comprueban que no tiene antecedentes psiquiátricos y proceden a hacerle pruebas. Lo primero es un análisis y los resultados del laboratorio indican un alto contenido de cloro en sangre, fósforo extremadamente bajo y bicarbonato elevado, entre otras descompensaciones.

Al ingresar, el paciente comparte un dato: mantiene múltiples restricciones dietéticas y destila su propio agua en casa. Además, confiesa que, durante tres meses, había reemplazado la sal de mesa, o cloruro de sodio, por bromuro de sodio adquirido por Internet. ¿El motivo? Consultó con ChatGPT y este le dijo que el cloruro se podía intercambiar por bromuro, aunque probablemente para otros fines, como la limpieza.

Pese a que parezca la trama de una serie, este episodio ocurrió de verdad y se publicó en la revista Annals of Internal Medicine hace unos meses. “Este caso también destaca cómo el uso de la inteligencia artificial puede contribuir potencialmente al desarrollo de consecuencias adversas para la salud prevenibles”, describen los investigadores.

Aunque ya se han notificado casos parecidos a este utilizando las versiones de ChatGPT que había disponibles hasta el momento, hace unas semanas OpenAI lanzaba su versión Health. Se trata de una nueva herramienta enfocada en la salud y el bienestar que se ha desarrollado junto con profesionales médicos. “Una experiencia diseñada para integrar de manera segura tu información médica con la inteligencia de ChatGPT, para que dispongas de más confianza y preparación a la hora de cuidar tu salud”, detallan. Por el momento, en los países que pertenecen al Espacio Económico Europeo, entre los que se encuentra España, no está disponible, pero los expertos ya comienzan a compartir sus opiniones.

Foto: ChatGPT en el móvil. (Pexels/Matheus Bertelli)

Para Josep Curto, profesor experto y director académico del máster en Inteligencia de Negocio y Big Data de la Universitat Oberta Catalunya (UOC), “estamos ante un cambio de paradigma, no solo es una mejora incremental”: “El valor real reside en la capacidad de síntesis y de accesibilidad: democratizar el acceso a la información médica compleja y reducir la carga administrativa de los profesionales. Sin embargo, en salud, la precisión no es negociable”.

El experto aclara que desde la perspectiva de la inteligencia artificial responsable, el beneficio “es real” solo si el sistema se implementa como IA aumentada, es decir, asistente del médico, y no como IA autónoma, sustituto del médico. “El riesgo principal no es la tecnología per se, sino el exceso de confianza que puede llevar a diagnósticos erróneos si no hay una supervisión humana experta constante”, comenta.

Foto: chatgpt-medicos-diagnostico-harvard

Esto es algo que comparte el doctor César Dilú Sorzano, miembro del Grupo de Trabajo de Salud Digital de la Sociedad Española de Médicos Generales y de Familia (SEMG). “No sustituye a las decisiones médicas, es una herramienta de apoyo para el paciente”, explica en conversación con El Confidencial.

En su caso, se encuentra todos los días con pacientes que llegan a su consulta con un posible diagnóstico de ChatGPT, pero admite que es un problema de las listas de espera: “Pides cita con el médico de familia y te dan para dentro de dos meses, eso es un gran problema de nuestro sistema de salud, no es capaz de atender esa demanda. La gente ya lo está usando, entonces habrá que crear un plan para educarles y que lo utilicen de manera responsable”.

Igualmente, recalca que el personal sanitario también debe recibir esa formación. “A los médicos no nos gusta que un paciente venga y diga que ChatGPT le ha dicho X, pero la realidad es que no podemos evitarlo. Pasa desde que existen los buscadores, hemos escuchado muchas veces ‘he leído en Google’. Siempre que hay avances en la tecnología, existe un rechazo por parte de la comunidad médica”, reconoce.

De hecho, Dilú opina que “ya es posible aliviar la sobrecarga” de la Atención Primaria, por ejemplo, transcribiendo las consultas. “Hay que invertir en estas tecnologías, pero si las personas no están preparadas, su uso no se aprovechará igual”, sostiene.

Foto: espana-refuerza-la-regulacion-de-la-ia-mas-alla-de-europa-o-una-mera-adaptacion Opinión

Respecto al marco regulatorio actual, el profesor Curto comenta que el Reglamento Europeo de Inteligencia Artificial, también conocido como EU AI Act, es precisamente “la salvaguarda que necesitábamos”. “Según esta ley, los sistemas de IA utilizados en diagnósticos médicos se clasifican mayoritariamente como de alto riesgo. Esto implica que ChatGPT Health deberá cumplir con requisitos estrictos de gestión de riesgos proactiva, trazabilidad de los datos de entrenamiento, transparencia para el usuario y supervisión humana por diseño”, asegura.

Además, añade que la regulación “no viene a frenar la innovación, sino a generar la confianza necesaria” para que los pacientes y médicos se atrevan a usarla: “Sin leyes claras, el sector salud nunca adoptaría estas herramientas de forma masiva por miedo al litigio”.

Foto: Una consulta de Atención Primaria. (EFE/Archivo/Quique García)

Acerca de los principales retos éticos y de seguridad, el experto identifica tres pilares críticos de riesgo. El primero es la privacidad y soberanía de los datos: “Los de salud son una categoría especial bajo el Reglamento General de Protección de Datos y el reto es garantizar que las consultas de los pacientes no se utilicen para reentrenar modelos comerciales, manteniendo un anonimato técnico absoluto”.

El segundo son las alucinaciones y sesgos algorítmicos. “Un modelo de lenguaje puede sonar muy convincente, incluso cuando yerra. Además, si los datos de entrenamiento presentan sesgos de género o de raza, las recomendaciones médicas podrían resultar discriminatorias”, asegura.

Por último, menciona la responsabilidad: “Si una IA sugiere un tratamiento incorrecto, la cadena de responsabilidad legal sigue siendo una zona gris en algunas regiones. ¿Es responsable el desarrollador, el hospital o el médico que validó la respuesta? Es necesario desplegar mecanismos adecuados de gobernanza de la IA”.

La opinión de los pacientes

El Defensor del Paciente ha publicado recientemente su Memoria Anual de 2025, en la que dedica un espacio a hablar sobre la inteligencia artificial. “El debate de cómo integrar las nuevas herramientas tecnológicas al servicio de los pacientes y la sanidad pública es amplio. Cuando pensamos en el impacto de la IA pensamos en el reemplazo del trabajo del hombre. A nuestro modo de entender la atención médica a través de la IA es un verdadero peligro. Conlleva mucha dificultad diagnóstica y puede conducir a graves errores en la medicación”, relatan.

Continúan diciendo que al paciente hay que “auscultarlo, explorarlo y ver la expresión de su cara”: “¿Cómo sustituimos la empatía o las sensaciones? El distanciamiento entre facultativo y paciente solo puede llevar al error médico. Desde nuestro punto de vista, el futuro de la Medicina es sombrío con la IA porque disipa el lado humano”.

Sin embargo, aclaran que no se oponen al uso de mecanismos basados en la IA “siempre que estén bien diseñados y sean capaces de resolver problemas de gestión asistencial, como reducir las listas de espera y automatizar tareas repetitivas”. “No es una solución mágica, la medicina de toda la vida es la que vale y no está obsoleta”, concluyen.

Llega un hombre a las urgencias de un hospital. Tiene 60 años y está preocupado porque cree que su vecino le está envenenando, los profesionales que le atienden comprueban que no tiene antecedentes psiquiátricos y proceden a hacerle pruebas. Lo primero es un análisis y los resultados del laboratorio indican un alto contenido de cloro en sangre, fósforo extremadamente bajo y bicarbonato elevado, entre otras descompensaciones.

Salud
El redactor recomienda