Alejandra Enríquez, psicóloga: "Mucho cuidado con contarle tus problemas a ChatGPT. No sabe quién eres"
Una advertencia circula con fuerza en redes: usar herramientas de inteligencia artificial para desahogarse puede ser más perjudicial de lo que parece, según explica una experta en salud mental
Parece inofensivo e incluso útil, pero apoyarte en la inteligencia artificial para desahogarte emocionalmente puede salirte caro. La psicóloga Alejandra Enríquez ha lanzado una advertencia contundente: “Mucho cuidado con contarle tus problemas a ChatGPT”, advierte en un vídeo que se ha hecho viral en redes sociales.
Con un tono directo y cuatro razones bien argumentadas, Enríquez desmonta la falsa sensación de seguridad que algunos usuarios encuentran en los chats de IA cuando atraviesan momentos difíciles. El primer punto es el más básico, pero también el más olvidado: “No sabe quién eres realmente. No va a resolver tus problemas y seguramente esté reforzando las ideas que le estás dando tú”, explica.
El segundo argumento se apoya en evidencia científica. Según la psicóloga, un estudio de la Universidad de Stanford ha demostrado que modelos como GPT pueden llegar a validar delirios, no detectar crisis emocionales y reforzar pensamientos que agravan el malestar. La máquina no distingue si el contenido que recibe es sano o peligroso, simplemente lo procesa y responde.
Otro de los riesgos señalados por Enríquez tiene que ver con los sesgos cognitivos. “Igual estás cayendo en el sesgo de confirmación y no eres consciente”, alerta. Este fenómeno psicológico lleva a las personas a fijarse solo en las ideas que confirman lo que ya creen, descartando el resto. Y con un chatbot que funciona en base a tus propias palabras, ese efecto puede amplificarse.
Pero su crítica más profunda se centra en la esencia misma del trabajo terapéutico. “Sanar heridas o curar traumas no va de aplicar una teoría que hay en un manual”, insiste. La IA puede tener acceso a toneladas de literatura científica, pero carece de lo más importante: el vínculo humano. Para que un tratamiento psicológico funcione, dice Enríquez, “va de sentirse visto, de sentirse escuchado, de especificarlo al paciente y hacerlo único”.
Parece inofensivo e incluso útil, pero apoyarte en la inteligencia artificial para desahogarte emocionalmente puede salirte caro. La psicóloga Alejandra Enríquez ha lanzado una advertencia contundente: “Mucho cuidado con contarle tus problemas a ChatGPT”, advierte en un vídeo que se ha hecho viral en redes sociales.