Piden a ChatGPT que resuelva un problema de hace 2.400 años y el resultado dice que empieza a razonar parecido a los humanos
El problema se considera un desafío clásico de la antigua Grecia. Los investigadores aseguran que trató de resolverlo del mismo modo en el que lo hacen los humanos
El logo de ChatGPT junto a la representación del problema matemático (Reuters/Dado Ruvic/Universidad de Cambridge)
El sistema ChatGPT fue puesto a prueba por especialistas de la Universidad de Cambridge y la Universidad Hebrea de Jerusalén con un desafío clásico de la antigua Grecia. La forma en que la inteligencia artificial respondió a este problema ha generado un intenso debate sobre su capacidad de razonamiento.
El ejercicio elegido fue el conocido dilema de “duplicar el cuadrado”, relatado por Platón en el siglo IV a.C. En el texto, Sócrates plantea a un joven cómo duplicar el área de un cuadrado. El error del alumno, que consistió en duplicar la longitud de los lados en lugar de utilizar la diagonal, se convirtió en un ejemplo clásico para discutir si el conocimiento matemático es innato o adquirido con la experiencia.
We've wondered for centuries whether knowledge is latent and innate or learned and grasped through experience, and a new research project is asking the same question about AI. https://t.co/8vzCjPMXI4
Los académicos consideraron que este problema resultaba ideal porque la solución no era evidente y, al no basarse en imágenes, difícilmente podía haber aparecido en los datos de entrenamiento de ChatGPT. El objetivo era comprobar si el modelo era capaz de llegar a una solución razonada sin apoyarse en información previa.
Respuestas similares a las humanas
El resultado sorprendió a los investigadores: el sistema fue capaz de formular una explicación válida. Posteriormente, al modificar el problema con un rectángulo, ChatGPT llegó a una conclusión incorrecta, un error comparable al que cometería un estudiante en un proceso de aprendizaje.
“Cuando nos enfrentamos a un nuevo problema, nuestro instinto es probar cosas basándonos en la experiencia previa. En nuestro experimento, ChatGPT pareció actuar de manera similar”, señaló Nadav Marco, investigador visitante en Cambridge.
De acuerdo con Marco, la probabilidad de que estas respuestas estuvieran en los datos de entrenamiento era “prácticamente nula”, lo que refuerza la idea de que el sistema estaba improvisando a partir del diálogo mantenido. Esta característica lo acerca al modo en que los humanos generan hipótesis y ponen a prueba sus propias conclusiones.
La zona de desarrollo próximo
El profesor Andreas Stylianides relacionó este comportamiento con la zona de desarrollo próximo, un concepto de la pedagogía que describe la diferencia entre lo que un alumno ya domina y lo que puede aprender con orientación. De forma inesperada, ChatGPT parecía aplicar este mismo mecanismo, elaborando propuestas nuevas sin limitarse a repetir datos.
El sistema ChatGPT fue puesto a prueba por especialistas de la Universidad de Cambridge y la Universidad Hebrea de Jerusalén con un desafío clásico de la antigua Grecia. La forma en que la inteligencia artificial respondió a este problema ha generado un intenso debate sobre su capacidad de razonamiento.