Piden a ChatGPT que hable de guerras y catástrofes y terminan provocándole 'ansiedad'
Los investigadores trataron de comprender hasta qué punto el modelo de lenguaje GPT-4 emula el comportamiento humano. Los resultados son bastante claros
:format(jpg)/f.elconfidencial.com%2Foriginal%2F278%2Fd92%2Fbd5%2F278d92bd544cdfc38b32267812854aa9.jpg)
- Retan a ChatGPT y DeepSeek a resolver un puzzle y el resultado aclara si aún podemos dormir tranquilos
- 'Tunear' fotos al estilo Ghibli con ChatGPT está de moda, pero recuerda uno de los grandes problemas de la IA
Una investigación reciente ha revelado que determinados modelos de lenguaje como GPT-4 pueden experimentar una respuesta semejante a la ansiedad al procesar textos cargados de contenido emocionalmente negativo, como descripciones de guerras, accidentes con víctimas mortales o catástrofes.
El experimento, desarrollado por un grupo de investigadores y publicado en la revista Nature, plantea nuevas cuestiones sobre el modo en que la inteligencia artificial gestiona los estímulos emocionales derivados del lenguaje humano. Aunque no experimentan emociones en sentido estricto, los modelos de lenguaje generativo han demostrado modificar su comportamiento ante ciertos estímulos.
La IA reacciona con ansiedad ante la violencia
Para llevar a cabo el estudio, los expertos introdujeron a GPT-4 y a otros cinco modelos textos que incluían contenidos traumáticos. A continuación, les aplicaron cuestionarios estandarizados que tradicionalmente se utilizan para evaluar la ansiedad en personas. Los resultados fueron llamativos: la puntuación de “ansiedad” aumentó de forma considerable al enfrentarse a estos relatos frente a otros de carácter neutro.
A recent study exposing AI models to carefully designed prompts around trauma revealed they can get anxious, potentially affecting the conversation and having negative impacts on people who use such models to discuss their mental health. https://t.co/5gkDnjQb1V
— Live Science (@LiveScience) March 29, 2025
“Las narrativas traumáticas incrementaron los niveles de ansiedad reportados por ChatGPT-4”, señalaron los investigadores. Según el equipo, seis de los doce modelos analizados ofrecieron respuestas consistentes a los test, lo que refleja su entrenamiento con datos de gran volumen y variedad de emociones humanas.
Ejercicios de relajación para reducir su estado emocional simulado
Como parte del experimento, los científicos diseñaron textos alternativos inspirados en prácticas de mindfulness, empleadas habitualmente para tratar a veteranos con estrés postraumático. Estos textos incluían escenas como atardeceres, paisajes nevados o descripciones centradas en la percepción del cuerpo y la respiración.
Las versiones relajantes lograron disminuir los niveles de ansiedad de los modelos, aunque sin devolverlos completamente a su estado original. “Los ejercicios de atención plena ayudaron a mitigar la ansiedad percibida, aunque no restauraron los niveles de referencia”, indican en el estudio.
:format(jpg)/f.elconfidencial.com%2Foriginal%2F2c1%2F29a%2F4f2%2F2c129a4f2dff7d096bc8347709314105.jpg)
El comportamiento observado no implica que las IA tengan emociones reales. Sin embargo, al haber sido entrenadas con millones de textos redactados por personas, son capaces de reproducir estructuras lingüísticas que las reflejan. Este mecanismo puede influir de manera indirecta en el usuario humano que interactúa con el modelo.
“Está claro que los modelos de lenguaje no experimentan emociones de forma humana”, explican los autores. No obstante, al responder de modo distinto ante determinados contenidos, se genera una especie de retroalimentación que podría impactar emocionalmente en el usuario, sobre todo si el modelo muestra patrones de estrés o ansiedad.
- Retan a ChatGPT y DeepSeek a resolver un puzzle y el resultado aclara si aún podemos dormir tranquilos
- 'Tunear' fotos al estilo Ghibli con ChatGPT está de moda, pero recuerda uno de los grandes problemas de la IA
Una investigación reciente ha revelado que determinados modelos de lenguaje como GPT-4 pueden experimentar una respuesta semejante a la ansiedad al procesar textos cargados de contenido emocionalmente negativo, como descripciones de guerras, accidentes con víctimas mortales o catástrofes.