Es noticia
¿Es más inteligente un niño de 7 años que una IA? El experimento que ha conmocionado a los científicos
  1. Alma, Corazón, Vida
NO TAN SUPERPODEROSAS

¿Es más inteligente un niño de 7 años que una IA? El experimento que ha conmocionado a los científicos

Se tiende a pensar que estas herramientas revolucionarias podrían resolver cualquier problema lógico por muy difícil que sea. Pero no en este estudio realizado con niños de tres a siete años

Foto: Foto: iStock.
Foto: iStock.

Vivimos un tiempo de gran expectación sobre lo que podrán y no podrán hacer las diferentes herramientas de inteligencia artificial. La entrada estelar de ChatGTP en nuestras vidas ha propulsado este sentir general de temor y fascinación a partes iguales. El mundo de la educación, sin ir más lejos, vive con suspense que los textos predictivos y generativos sirvan a los alumnos para hacer trampas en los trabajos y exámenes.

En la mayoría de los casos, pensamos en las consecuencias de la irrupción de la inteligencia artificial desde el punto de vista adulto: los trabajos que se llevará por delante o, en el mejor de los casos, cómo agilizará la vida laboral. Pero a veces pasamos por alto cómo afectará a los niños y su educación, ya que resultará muy diferente respecto a las generaciones anteriores, como también se ha venido demostrado con los centennials, al ser la primera generación digital nativa de la historia.

Bajo esta perspectiva, un nuevo estudio ha puesto contra las cuerdas a la inteligencia artificial, demostrando que un niño de tres años es capaz de solucionar una serie de tareas que la IA no puede. "A mucha gente le gusta pensar que los grandes modelos lingüísticos son agentes inteligentes como las personas", afirma Alison Gopnik, de la Universidad de Berkeley, quien ha dirigido un curioso estudio que demostró que los niños eran capaces de sobrepasar a la máquina en una serie de tareas creativas.

"Los grandes modelos de lenguaje son muy hábiles para percibir patrones en los datos, pero aprender del material escrito existente no podría ser suficiente para que la IA encuentre soluciones a problemas que los niños pueden resolver", añade.

Las IA son muy buenas imitando el modo de pensar y razonar de los humanos, pero no van a sacar una idea ingeniosa o creativa

Estas declaraciones están recogidas de un artículo de la revista Aeon escrito por la periodista Sheyla Love que a su vez recoge el curioso estudio de Gopnik y su equipo. En un experimento, reunieron a un grupo de niños de tres a siete años y les dieron descripciones de objetos cotidianos, como una regla, un compás y una tetera, pidiéndoles que relacionaran los objetos que más se parecían entre sí. Luego, le pidieron realizar la misma tarea a un grupo de adultos y a una IA. Al final, todos concluyeron la tarea y satisfactoriamente en la mayoría de los casos. Pero en un siguiente experimento, el resultado de dichas pruebas cambió.

Los investigadores pidieron a los tres grupos (niños, adultos e IA) algunos problemas con un trasfondo creativo y no tan lógico. Por ejemplo, cómo dibujar un círculo con solo una regla, una estufa o una tetera. Cuando hicieron la prueba, tanto los niños como los adultos dedujeron que la tetera era un objeto con forma circular en su parte inferior, a diferencia de la regla que era un instrumento de medición recto o una estufa que simplemente sirve para calentarse. Los niños de tres a siete años rápidamente percibieron que podían dibujar el círculo sirviéndose de la tetera, una conclusión a la que el modelo lingüístico de IA no pudo llegar.

"Es la capacidad de innovación humana la que nos permite generar nuevas soluciones a los problemas y adaptarnos a entornos cambiantes"

El 85% de los niños y el 95% de los adultos se decantaron por esta opción, en lugar de por la regla o la estufa (esta última era irrelevante y se metió en la prueba como elemento de control del estudio). Por el contrario, los cinco modelos predictivos de IA tenían dudas sobre qué instrumento usar. El que tenía peor rendimiento o no estaba tan desarrollado, el Text-davinci-003, eligió la tetera solamente el 8% de las veces, y el mejor modelo de Chat GPT lo consiguió el 76%.

"Con ello no creemos que los grandes modelos lingüísticos no sepan hacerlo, son muy buenos imitando lo ya preexistente", afirma Eunice Yiu, colega de Gopnik. "Podríamos ver los sistemas de IA como herramientas muy potentes a la hora de escribir y dominar el lenguaje, pero no son del todo innovadores por sí mismos". Esto demuestra que las IA son muy buenas imitando el modo de pensar, razonar y narrar de los humanos, pero para nada van a sacarse una idea ingeniosa de la chistera con un trasfondo innovador o creativo. Y, como dice Love más adelante, "es la capacidad de innovación humana la que nos permite generar nuevas soluciones a los problemas y adaptarnos a entornos o circunstancias cambiantes".

"Los bebés aprenden conceptos complejos sobre el mundo a través de conjuntos de datos desordenados y no supervisados", sentencia la periodista. "Pueden aprender y crear categorías a partir de una pequeña cantidad de ejemplos. Por ejemplo, después de hojear las páginas de un libro ilustrado pueden distinguir entre gatos, perros, jaguares, rinocerontes o unicornios". En definitiva, "la mayor parte del aprendizaje de un bebé es espontáneo y motivado por sí mismo". Como decía el propio Alan Turing, el mayor padre de la computación moderna, "en lugar de crear un programa de ordenador para simular la mente de un adulto... ¿Por qué no intentar producir uno que emule la mente de un niño?".

Vivimos un tiempo de gran expectación sobre lo que podrán y no podrán hacer las diferentes herramientas de inteligencia artificial. La entrada estelar de ChatGTP en nuestras vidas ha propulsado este sentir general de temor y fascinación a partes iguales. El mundo de la educación, sin ir más lejos, vive con suspense que los textos predictivos y generativos sirvan a los alumnos para hacer trampas en los trabajos y exámenes.

Social Inteligencia Artificial
El redactor recomienda