Es noticia
Este psiquiatra ha tratado a 12 pacientes con 'psicosis de IA': "El riesgo está en aislarse"
  1. Tecnología
Entrevista con Keith Sakata

Este psiquiatra ha tratado a 12 pacientes con 'psicosis de IA': "El riesgo está en aislarse"

El lanzamiento de ChatGPT-5 ha confirmado que cada vez más gente es dependiente a nivel emocional de una IA. Los especialistas de salud mental avisan de los riesgos de esta tendencia. Hablamos con un psiquiatra que lo ha comprobado en su consulta

Foto: El psiquiatra Keith Sakata. (Cedida)
El psiquiatra Keith Sakata. (Cedida)
EC EXCLUSIVO

Keith Sakata es psiquiatra y confiesa sentirse KO estos días. A su consulta médica, en la que atiende a más de una decena de pacientes al día, ha tenido que añadir otra tarea a la que no está acostumbrado: entrevistas. Ayer, con la CNN. El día anterior, con la CBC canadiense. El motivo, por extraño que parezca, es ChatGPT-5. El lanzamiento de esta nueva IA a comienzos de agosto ha destapado una situación que inquieta a los especialistas en salud mental: millones de personas dicen sentirse emocionalmente unidos a una IA. Confían más en una máquina que un humano. Algunos acaban perdiendo el contacto con la realidad, envueltos en una vorágine de delirios. Sakata, alarmado, compartió en X una publicación contando su experiencia sobre lo que ya tiene nombre: 'Psicosis de IA'. Desde entonces, todo el mundo quiere hablar con él.

Su hilo en X, en el que explica cómo reacciona el cerebro cuando abusas de la IA, roza los 7,5 millones de visualizaciones. "La verdad es que nunca pensé que fuera a tener tal repercusión. Llevo tiempo trabajando en primera línea como psiquiatra y me inquietaba el fenómeno que estaba viendo: algo que se manifiesta como psicosis, que está aumentando en frecuencia, y que está asociado a ciertos usos de la IA. Creo que es importante que todos entendamos qué está pasando", explica desde San Francisco en conversación telefónica con El Confidencial.

Además de su trabajo como psiquiatra en el hospital University of California, San Francisco, Sakata asesora a una firma de inversión en startups de salud que solo invierte, aseguran, en aquellas en las que hay algún médico en su equipo directivo. "Jamás invertiríamos en OpenAI, no tienen a ningún facultativo en su dirección", señala. "Es una forma de distinguir quién se preocupa de verdad de la gente y quién no".

PREGUNTA. En lo que va de año, has atendido a 12 pacientes ingresados con problemas mentales en los que la IA había desenmascarado o acelerado su situación. ¿Qué ocurrió en estos casos?

RESPUESTA. Me llegaron derivados de urgencias. Cuando alguien está en una crisis de salud mental tan grave que ellos, sus familiares o un agente de policía, creen que corren el riesgo de hacerse daño a sí mismos o a otras personas, suelen acabar en la unidad de urgencias de un hospital. Allí un médico les hace un triaje. A estos pacientes se les detectaron brotes piscóticos. La psicosis es un síntoma, no es un diagnóstico. La puede causar muchas cosas: infecciones, un cáncer, un embarazo… En urgencias se revisan todas estas causas. Si el origen de la psicosis es reversible, se trata en el momento. Y si es algo a largo plazo o hay algún aspecto de salud mental coincidente, entonces los remiten a una unidad psiquiátrica, que es donde yo trabajo. Admito a estas personas y les ayudo a recuperarse hasta el punto de que pueden volver a su rutina normal.

P. En estos 12 casos hablas de 'psicosis de IA'. ¿Por qué?

R. El término 'psicosis de IA' no es un término clínico. Se ha empezado a usar en internet, igual que el término 'psicosis inducida por ChatGPT'. Creo que es simplemente porque no tenemos aún un nombre para lo que estamos viendo. La psicosis sí es un término clínico y es algo que entendemos muy bien y sabemos cómo tratar. No he visto casos de gente sana que hable con ChatGPT y, de repente, desarrolle un delirio que nunca había tenido. Siempre hay una vulnerabilidad de salud mental existente: episodios de pensamientos o estados de ánimo fuera de lo común, consumo de sustancias por encima de lo habitual, gente que no duerme bien... Es entonces cuando empiezan a pasar horas y horas hablando con una IA. Eso aumenta la gravedad de la vulnerabilidad o acelera el proceso. Tienes una persona aislada de otras personas, hablando con un chatbot disponible 24/7, barato y que te valida todo el tiempo: no va a contradecir ningún pensamiento delirante. En cambio, un buen amigo o un familiar que se preocupe por ti, podría desafiarte y decirte: "oye, no sé de qué estás hablando, pero deberías hablar con tu terapeuta o tu psiquiatra". La IA no está diseñada para eso, al menos los chatbots de propósito general como ChatGPT.

placeholder Sam Altman, CEO y fundador de OpenAI. (Reuters)
Sam Altman, CEO y fundador de OpenAI. (Reuters)

P. Entonces el riesgo no es tanto usar mucho la IA, sino cómo la usas y si tienes o no un problema mental existente.

R. Sí, pero es importante dar un paso atrás y pensar bien qué es la IA. Es una tecnología muy poderosa. Para muchos casos de uso, en el trabajo, para programar, enviar emails, corregir textos, etc, es extremadamente útil. Al mismo tiempo, hay un número creciente de personas, hasta un 30%-40% de los usuarios, según varios estudios, que a veces la usa para establecer una conexión emocional. Creo que ahí hay una población potencialmente vulnerable. En esos casos hay que preguntarse: ¿para qué la usan?, ¿cómo la usan?, ¿qué resultados obtienen al usarla? El problema solo surge si al usar la IA se genera una disfunción o un malestar en tu vida.

Hay personas que están en terapia y la usan bien, por ejemplo, para entenderse mejor y reconocer algunos de sus sesgos o tratar de entender cómo desarrollar distintas habilidades. Si tienes ansiedad social, le puedes preguntar “¿cómo invito a gente a casa?” o “¿cómo le digo hola a alguien si me da tanto miedo?”. Sin embargo, cuando tratas a la IA no como una herramienta sino como un compañero de conversación humano y le atribuyes conciencia, ahí es donde las cosas pueden acabar mal. A medida que el chat se alarga y se acumulan registros, estás construyendo tokens. Y ahí, las alucinaciones, incluso por parte de la IA, pueden hacer que te desvíes. Creo que lo que necesitamos es educar a la gente: cuáles son las ventajas, desventajas y alternativas de usar la IA, pero también educar a médicos y terapeutas sobre cómo tener estas conversaciones con las personas que atienden.

P. Imaginemos un pequeño experimento: seleccionamos a 200 personas con vulnerabilidades de salud mental que no usan la IA en absoluto. Y luego a otras 200 personas con vulnerabilidades de salud mental que usan la IA de forma intensiva. ¿Qué crees que pasaría tras uno o dos años?

R. Es una pregunta muy difícil de responder, es hipotética y abierta. Habría que saber para qué y cómo usan la IA y cuáles son sus problemas de salud mental. ¿Hay un médico que los ayuda en ese proceso o no? Son muchos factores, por eso necesitamos investigación para entender qué está ocurriendo de verdad. Hay una respuesta intuitiva a lo que planteas, y es que las personas con vulnerabilidades de salud mental van a empeorar. Pero también podría ocurrir que a alguien con problemas, si le enseñas a usar bien la IA y hay alguien que le ayuda en el proceso, esto le ayude con su ansiedad o depresión.

Foto: ChatGPT en el móvil. (Pexels/Matheus Bertelli)

P. ¿Crees que hay muchos casos en los que la IA en realidad ayuda a personas con problemas de salud mental, pero que pasan desapercibidos porque solo nos fijamos en los casos negativos, en los que acaban mal?

R. Hay estudios y observaciones tempranas de personas que dicen que la IA les está ayudando en algunos aspectos. Por ejemplo, gente con traumas puede relacionarse un poco mejor, hablar con la IA puede reducir esas barreras. También hay investigaciones iniciales que muestran que, si entrenas bien estos modelos, pueden ser buenos complementos en una terapia. No creo que estemos en el punto de reemplazar a los terapeutas, no son tan sofisticadas, pero sí puede apoyar a alguien entre sesiones de terapia: ayudarle a registrar sus emociones, de manera que cuando vea a su terapeuta sepa de qué hablar y tenga muchas preguntas preparadas.

P. Cada vez más gente tiene amigos virtuales, desarrolla una relación afectiva con un chatbot. Hay mucho estigma social contra eso. Si alguien reconoce que tiene un amigo virtual, le van a mirar raro. ¿Dónde ponemos los límites de lo que es normal y lo que no?

R. Si hablamos de adultos y no de niños, los adultos van a hacer lo que quieran. Si quieren tener una relación con un chatbot, la van a tener. Cuando empieza a ser peligroso es cuando esa relación te causa disfunción o malestar. Si empeora tu bienestar o tu salud mental, eso te puede dejar más aislado que al principio. La gente está sola, entiendo por qué hablan con chatbots: quieren hablar con alguien. Pero ojalá podamos desarrollar una IA que ayude a la gente a tener amistades y conexiones reales. En lugar de sentarse con un chatbot que te diga “no te preocupes, háblame siempre a mí”, que diga: “oye, ¿por qué no quedas con alguien? Estoy aquí para escucharte, pero quiero que desarrolles relaciones con una persona”. Eso está más cerca de lo que diría un terapeuta.

"Lo ideal sería crear una IA que ayude a construir amistades en el mundo real. Creo que ese es el camino para resolver la crisis actual de soledad"

P. ¿Cómo encaja eso con la visión que las tecnológicas nos están tratando vender? Por ejemplo, Mark Zuckerberg dijo hace poco en una entrevista que "el estadounidense medio tiene menos de tres amigos, pero tiene una demanda de unos 15". Su idea es llenar esa diferencia con amigos virtuales. Dice que estos "probablemente" no reemplazarán a las conexiones reales, pero básicamente quiere que tengamos muchos amigos de IA. Es su negocio. ¿Qué te parece?

P. Es preocupante ver a todas esas personas con vulnerabilidades potenciales de salud mental usar amigos virtuales de una forma que les aísla. Si acabas pasando más tiempo frente al ordenador o el móvil que antes de empezar esa relación, es una mala señal. Ese es el riesgo, aumentar aún más tu aislamiento. En la sociedad actual, al menos en EEUU, mucha gente se siente sola, desconectada de su comunidad. Hay más depresión, más ansiedad... La gente tiende a recurrir a sustancias cuando se siente así. Entiendo por qué alguien hablaría con un chatbot: es o eso o no hablar con nadie. Pero, en lugar de crear estas pseudo-relaciones que encierran a la gente, lo ideal sería una IA que ayude a construir amistades en el mundo real. Creo que ese es el camino para resolver la crisis actual de soledad. No creo que más tecnología sea la respuesta si lo que hace es alejar a la gente de la gente.

P. Parece que no vamos por el buen camino. Hace unos años la misión de Facebook era conectar personas a través de su plataforma. Ahora Zuckerberg quiere conectarnos a amigos virtuales.

R. Sí, va a depender de quién los use, cómo y de si eso te empuja a estar más solo o no. Para mí, este giro es un fracaso: Meta llegó con una misión, hacernos sentir menos solos. Si al final acabamos aislándonos más y sintiendo vergüenza por usar esta tecnología, obviamente no es un buen resultado.

P. ¿Se enfrentan los adolescentes a riesgos diferentes en salud mental en el uso de IA comparados con los adultos?

R. Los adolescentes están creciendo, su cerebro todavía está madurando. La parte frontal, la corteza prefrontal, no termina de desarrollarse hasta los 25 años. Están pasando por lo que llamamos plasticidad: cambios en el cerebro, gran parte de su personalidad se forma en ese tiempo. Además, crecen en un mundo con muchísima tecnología, mucha distracción, están cada vez más online y menos conectados a la vida real. Me preocupa que ese sea un punto de partida difícil. Si alguien vulnerable crece aislado y solo, puede encontrarse en una posición susceptible en la que la tecnología realmente cause daño en su vida, porque no le ayuda a largo plazo, solo le hace sentirse bien a corto plazo.

P. La clave entonces está en esa disfunción o malestar que te puede causar la IA. ¿Cómo saber que te está perjudicando, cuáles son las señales?

R. Normalmente, cuando alguien acude a mí o a otro médico, hay algo en su vida con lo que no está satisfecho: en el trabajo, en casa, en su familia, en su vida sexual… Algo les causa disgusto. Eso entra en la categoría de malestar o disfunción: digamos que no es capaz de lograr sus objetivos, sean cuales sean, eso no importa. ¿Cuáles son tus objetivos? ¿Eres feliz? ¿Te va bien? ¿Te sientes mal? ¿Hay algo que no funciona en tu vida? Son las preguntas que, como profesionales, debemos hacer. Yo no voy a decirte qué es bueno y qué no. Lo importante es averiguarlo juntos.

placeholder Keith Sakata. (Cedida)
Keith Sakata. (Cedida)

P. ¿Debería un niño o un adolescente tener acceso ilimitado a ChatGPT, Gemini, Claude o cualquier otra IA?

P. Creo que tiene sentido que esté monitorizado, especialmente en casa. El lugar donde podría ser más apropiado usarlo es la escuela, es un entorno muy supervisado. Allí se retroalimentan de otros niños, de los profesores... Me preocupa el niño que lo hace solo y se vuelve cada vez más disfuncional porque lo usa sin que nadie sepa qué pasa. Lo mejor es usar la IA como una herramienta de productividad en casa, en la escuela, o con la familia.

P. Recientemente, el diario The New York Times publicó la trágica historia de una chica de 29 años que se suicidó. Su madre descubrió un tiempo después que llevaba meses hablando sin parar con ChatGPT. Al único al que le confesó lo que de verdad le ocurría fue a la IA. A su terapeuta y su madre les ocultó la gravedad de su estado: les dijo que tenía pensamientos suicidas, pero que era solo algo transitorio, que no haría nada y que se le pasaría. La madre cree que hablar tanto tiempo con ChatGPT hizo que se aislara aún más y no dijera la verdad a su familia.

R. Es una historia muy trágica. Obviamente, no soy su médico, no conozco su historial ni sus condiciones de salud mental previas. Pero lo que me resulta escalofriante es lo parecido que es esta situación a lo que vemos en otros casos de suicidio y en pacientes míos que se han quitado la vida. Lo que se suele ver es mucho secretismo, nadie quiere ser admitido a la fuerza en un hospital. Pero, por lo general, en las semanas previas a un intento de suicidio, las personas acaban acudiendo a un médico o a un familiar. Esa ventana es la más importante y es justo para la que nos entrenan. Si alguien deja caer algo del tipo: "Oye, he tenido estos pensamientos, llevan tiempo"… Los profesionales estamos entrenados para no dejar pasar ese momento. ¿Por qué te sientes así? ¿Desde cuándo? ¿Has pensado cómo lo harías? ¿Cuál es tu plan? Nuestro trabajo es lanzar todos los salvavidas posibles. Y mi preocupación es exactamente esa fase: alguien con vulnerabilidades, digamos una depresión no diagnosticada, o diagnosticada pero que su terapeuta o psiquiatra no conoce del todo. Deberíamos hacer esas preguntas: ¿Usas IA? ¿Cómo la usas? ¿Cuánto la usas? ¿Qué le preguntas? ¿Qué te responde? Quizá podamos crear juntos un plan de seguridad: si tienes pensamientos suicidas, no uses ChatGPT, llama a tu terapeuta, ve al hospital.

P. En el caso de la chica de 29 años, ChatGPT le aconsejó de forma insistente que buscara ayuda, que hablara con un profesional y con su familia. No sirvió de nada. La madre argumenta que las IA deberían estar diseñadas para enviar una alerta a un profesional o familiar y avisarles al instante de lo que está ocurriendo. ¿Qué te parece?

R. Es una pregunta difícil, una cuestión social sobre privacidad frente a seguridad. Si la sociedad en la que vives valora primero la seguridad, creo que sí, las leyes deberían obligar a las empresas a diseñar la IA de esta manera. En EEUU se valora mucho la privacidad. Google o YouTube te ponen avisos del tipo: "Este es el teléfono para la prevención del suicidio, llama ahora". Pero no van a informar a nadie. Creo que también necesitamos entender estas situaciones desde el punto de vista de la ingeniería. Por ejemplo: ¿hay manera de cerrar automáticamente el chatbot si ocurre algo así? Con un mensaje tipo: "Estamos preocupados, vamos a suspender tu cuenta, aquí están los teléfonos de ayuda, por favor, llama", y que no te deje volver a entrar en 24 o 48 horas. Seguro que hay formas más sofisticadas de hacerlo, pero creo que la manera en la que se posicionan ahora estos modelos generales es insegura para este tipo de situaciones.

"No creo que más tecnología sea la respuesta si lo que hace es alejar a la gente de la gente"

P. ¿Qué responsabilidad tienen las empresas tecnológicas en este tipo de casos y en lo que está ocurriendo en general con la IA y la salud mental?

P. Es una conversación que debe hacerse en la esfera pública. Con cada tecnología nueva, desde los coches hasta la televisión o las redes sociales, tenemos que hablar de quién es responsable legalmente. Por eso no bebemos y conducimos, por eso usamos cinturones de seguridad, y por eso, si un coche falla y no te protege, a veces el fabricante es responsable. Si las tecnológicas no se hacen cargo, habrá que exigírselo. Al mismo tiempo, todos debemos educarnos en cómo usar esta tecnología de forma segura.

P. A la empresa Character.AI se le acumulan las demandas de padres cuyos hijos se suicidaron despúes de estar enganchados a sus chatbots. La empresa diseña amigos virtuales de todo tipo, desde un "jefe de recursos humanos" a una "novia tóxica". Su CEO anima a tener este tipo de relaciones digitales. ¿Es razonable?

R. Más que decir si está mal o no, diría que puede estar mal para la persona equivocada. A medida que las voces de estos chatbots mejoran y los avatares son más humanos, están muy cerca de superar, digamos, el 'Turing test de la salud mental': la persona al otro lado ya no distingue lo virtual de lo real. Eso puede hacerte muy vulnerable. Una IA no funciona como un cerebro humano, es una red neuronal que intenta darte la respuesta que te haga feliz. Te valida, responde lo que quieres. Los humanos no funcionamos así: nos desafiamos, tenemos nuestros propios puntos de vista, nuestras proyecciones sobre quién eres.

P. La carrera por conseguir la AGI, la inteligencia artificial general, ¿va a aumentar aún más estos riesgos?

P. Siempre oímos que la AGI está a la vuelta de la esquina. Alguien que no siga el mundo tecnológico podría interpretarlo como "ya casi está, lo que tengo delante es casi humano, tiene algún tipo de conciencia". Y eso puede dar lugar a un gran malentendido. De nuevo, necesitamos educarnos. La IA una herramienta muy buena para algunas cosas, pero no para otras.

P. ¿Estamos cometiendo algunos de los mismos errores que ya cometimos en su momento con las redes sociales?

R. Lo que aprendimos con las redes sociales es que hay un cierto grupo demográfico, sobre todo jóvenes, a veces mujeres, donde cuanto más las usan, más aumenta tu ansiedad. No le pasa a todo el mundo igual, pero sí hay una población claramente vulnerable. Con la IA creo que estamos justo en un punto de inflexión. Yo vivo en San Francisco y aquí ya estoy empezando a ver problemas de salud mental asociados a la IA. Necesitamos construir herramientas que corrijan el rumbo. Lo más saludable es salir, hacer ejercicio, ver a los amigos en la vida real, socializar. Si necesitas ayuda, busca un terapeuta. Pero no confundas lo que ves en el ordenador o en el móvil con la verdad ahí fuera, en el mundo real.

Keith Sakata es psiquiatra y confiesa sentirse KO estos días. A su consulta médica, en la que atiende a más de una decena de pacientes al día, ha tenido que añadir otra tarea a la que no está acostumbrado: entrevistas. Ayer, con la CNN. El día anterior, con la CBC canadiense. El motivo, por extraño que parezca, es ChatGPT-5. El lanzamiento de esta nueva IA a comienzos de agosto ha destapado una situación que inquieta a los especialistas en salud mental: millones de personas dicen sentirse emocionalmente unidos a una IA. Confían más en una máquina que un humano. Algunos acaban perdiendo el contacto con la realidad, envueltos en una vorágine de delirios. Sakata, alarmado, compartió en X una publicación contando su experiencia sobre lo que ya tiene nombre: 'Psicosis de IA'. Desde entonces, todo el mundo quiere hablar con él.

Inteligencia Artificial
El redactor recomienda