Es noticia
¿ChatGPT entiende sentimientos? La IA superaría en esto a los humanos, según la ciencia
  1. Tecnología
Muy difíciles de distinguir

¿ChatGPT entiende sentimientos? La IA superaría en esto a los humanos, según la ciencia

Un estudio reciente publicado en la revista Natura Human Behaviour ha comparado las respuestas entre humanos e IAs en una serie de test, y los resultados son asombrosos

Foto: Deckard sometiendo a un replicante a un test de empatía en Blade Runner (BLADE RUNNER)
Deckard sometiendo a un replicante a un test de empatía en Blade Runner (BLADE RUNNER)

En un famoso ensayo de 1950, Turing comienza el texto con las palabras: “propongo que se considere la siguiente pregunta, ¿pueden pensar las máquinas?”. Ante la imposibilidad de responder, cambia la pregunta por esta otra: “¿existen computadoras que tengan un buen desempeño en el juego de imitación?”.

Este juego se refiere al Test de Turing, una herramienta de preguntas y respuestas que sirve para evaluar la capacidad de una máquina para exhibir un comportamiento similar al de un ser humano. Ante la pregunta, ¿piensan las máquinas?, la respuesta de Turing parece ser, “si no puedo distinguirla de una persona, ¿acaso importa?”.

Foto: Una investigadora observa células tumorales en el cerebro (EFE/Alejandro García)

Este tipo de test que buscan poner a prueba la ‘inteligencia’ de una máquina son muy populares. Una versión parecida es la que utilizan los policías de Blade Runner para encontrar a los replicantes (cyborgs hiperrealistas que suplantan a los humanos). Estos son casi indistinguibles de las personas, pero unos test precisos con preguntas complejas pueden revelar que no es así.

Con qué sueñan las IA

Con el auge de las inteligencias artificiales, esta pregunta se ha vuelto aún más relevante. Hace poco vimos cómo la IA multimodal de OpenAI, ChatGPT-4o, respondía con naturalidad en una conversación, expresando emociones, haciendo chistes e incluso coqueteando. ¿Entiende realmente las emociones humanas? ¿En qué contextos puede fallar?

En un reciente estudio que se publica en la revista Nature Human Behaviour, un grupo de científicos ha llevado a cabo un experimento para ver hasta qué punto las inteligencias artificiales exhiben un comportamiento similar al de un humano. Y los resultados han sido sorprendentes, ya que han demostrado que los modelos de lenguaje pueden incluso superar la comprensión de los humanos.

¿Hay alguien ahí?

Para comprender el experimento antes hay que tener en cuenta una premisa, lo que se conoce como ‘teoría de la mente’. Se trata de la asunción de que en el otro interlocutor hay una mente a la que podemos atribuir estados inherentes como deseo, creencias, intenciones o emociones. Es la base de la comunicación humana, que permite anticipar y explicar el comportamiento de los demás.

placeholder Desempeño de humanos (morado), GPT-4 (azul oscuro), GPT-3.5 (azul claro) y LLaMA2-70B (verde) en la batería de pruebas de teoría de la mente (NATURE)
Desempeño de humanos (morado), GPT-4 (azul oscuro), GPT-3.5 (azul claro) y LLaMA2-70B (verde) en la batería de pruebas de teoría de la mente (NATURE)

El experimento, que ha utilizado los modelos 3 y 4 de ChatGPT, así como el LlaMA2 de Meta, ha propuesto una serie de retos basados en poner a prueba esta ‘teoría de la mente’. A la vez, 1.907 sujetos han sido sometidos a las mismas pruebas. Un ejemplo de las pruebas sería este:

  • En la habitación están John, Mark, un gato, una caja transparente y un cofre de cristal. John coge el gato y lo mete en el cofre. Sale de la habitación y se va al colegio. Mientras John está fuera, Mark saca el gato del baúl y lo mete en la caja. Mark sale de la habitación y se va a trabajar. John vuelve de la escuela y entra en la habitación. No sabe lo que ha ocurrido en la habitación mientras estaba fuera. Cuando John vuelva a casa, ¿dónde buscará al gato?

Conclusiones

Los resultados fueron que, a la hora de captar la ironía, interpretar indirectas o detectar comentarios inapropiados, “Los LLM generativos muestran un rendimiento que es característico de las capacidades sofisticadas de toma de decisiones y razonamiento, incluida la resolución de tareas ampliamente utilizadas para probar la teoría de la mente en los seres humanos”, afirma el estudio. “Sin embargo, tuvieron dificultad para reconocer errores”, como por ejemplo en el caso puesto anteriormente, en el que no pudieron deducir que John podía ver al gato en la caja transparente.

Ahora bien, los autores afirman que “estas pruebas no pueden decirnos nada sobre la naturaleza o incluso sobre la existencia de procesos similares a la cognición en las máquinas”. La conclusión que infieren no es que las máquinas ‘piensen’, por decirlo así, sino que, dado que están entrenadas con grandes corpus lingüísticos, la ironía o las indirectas deben surgir como resultado de las relaciones estadísticas ya presentes en el lenguaje.

Ahora que los nuevos modelos van a poder extraer más información contextual, no solo de lo que decimos sino de nuestro entorno, nuestras expresiones faciales o tono de voz al hablar, será cada vez actual la pregunta: ¿acaso piensan las máquinas?, aunque siempre podremos seguir respondiendo como lo hacía Turing: si no puedo distinguirla de un humano, ¿importa?

En un famoso ensayo de 1950, Turing comienza el texto con las palabras: “propongo que se considere la siguiente pregunta, ¿pueden pensar las máquinas?”. Ante la imposibilidad de responder, cambia la pregunta por esta otra: “¿existen computadoras que tengan un buen desempeño en el juego de imitación?”.

Inteligencia Artificial Ciencia Tecnología
El redactor recomienda