Es noticia
Este genio francés tiene una predicción sobre qué pasará cuando la IA sea tan lista como tú
  1. Tecnología
Entrevista con François Chollet

Este genio francés tiene una predicción sobre qué pasará cuando la IA sea tan lista como tú

Es el creador del test más efectivo para predecir si una IA razona de forma similar o no a un humano. Y OpenAI tiene un nuevo modelo que ha roto todos los registros. "Nos acerca hacia la inteligencia general artificial"

Foto: François Chollet. (Cedida)
François Chollet. (Cedida)
EC EXCLUSIVO Artículo solo para suscriptores

El pasado 20 de diciembre, cuando faltaban solo cinco días para Navidad, sucedió algo que una de las mentes más brillantes en el campo de la inteligencia artificial califica de "sorprendente". "Al principio no me lo creía. Luego vi los resultados y sí, eran ciertos. Si lo que dice OpenAI se cumple, y es un gran "sí", estamos ante el avance más importante desde la creación de ChatGPT", explica François Chollet en conversación telefónica con El Confidencial. Este joven ingeniero francés de 35 años, exingeniero de Google y afincado en EEUU desde hace más de una década, es una de las voces más respetadas a nivel mundial en el campo de la IA. No es para menos: él tiene una de las claves para alcanzar el sueño húmedo del sector, conseguir un programa tan inteligente como un humano, indistinguible de nuestra forma de razonar.

El avance navideño que describe Chollet se llama o3. Es un nuevo modelo de IA que Sam Altman anunció por sorpresa y que, desde entonces, fascina y obsesiona por igual a los mayores especialistas en IA. Argumentan que se trata de la primera vez que una máquina muestra señales nunca vistas hasta ahora de razonamiento similar al de una persona. La prueba está en los datos.

Chollet, nombrado el año pasado por la revista Time una de las 100 personas más influentes del mundo en IA, desarrolló en 2019 el test ARC-AGI para evaluar la inteligencia de una IA. Es algo así como el test de Turing de los nuevos tiempos. Se trata de 100 preguntas, puzles visuales diseñados de forma que la máquina no ha podido ser antes entrenada en cómo resolverlos. La media de aciertos de un humano es del 84%. Sin embargo, o3 logró un 87,5% en un modo de alta computación (gastándose 3.000 dólares en capacidad de procesamiento por respuesta) y un 75,7% en el modo de baja computación (20 dólares por respuesta). Nunca antes una IA había logrado semejantes puntuaciones.

Foto: El asalto de los 'tecnoligarcas' al poder. (L. M.)
TE PUEDE INTERESAR
El asalto de los 'tecnoligarcas' al poder: así se está fraguando el nuevo orden mundial
Manuel Ángel Méndez Argemino Barro. Nueva York Gráficos: Miguel Ángel Gavilanes Ilustración: Laura Martín

"Nos acerca un paso hacia la inteligencia artificial general [AGI, por sus siglas en inglés]", explica Chollet, que el pasado noviembre abandonó Google tras casi una década, justo para crear su propio laboratorio de inteligencia artificial, llamado Ndea. "Creo que tenemos una pequeña oportunidad, pero real, de lograr un avance revolucionario: crear una IA que pueda aprender como un humano".

P. OpenAI ha generado un enorme revuelo con o3. ¿Qué pensaste cuando viste los resultados que obtuvo en el test que tú mismo has creado?

R. Fue muy sorprendente. Antes de o3, mi predicción para que se resolviera el test ARC-AGI era de 1-2 años, pero eso era con las reglas de la competición actual, en la que solo puedes usar 10 dólares de poder de computación por tarea. Con o3, en el modo de baja computación, destinan 20 dólares por tarea. En el modo de alta computación, unos 3.000 dólares por cada una. Ese es el motivo por el que OpenAI ha podido acelerar su desarrollo.

"Hasta ahora no estábamos logrando ningún progreso visible para acercarnos a la AGI. Shora, de repente, hemos encontrado un camino"

P. Hay investigadores que han calificado este avance de "histórico". ¿Es de verdad tan importante?

R. Es un poco complicado responder porque, de momento, sabemos muy poco del modelo. Los únicos datos que tenemos son los del test de ARC-AGI y el resultado del 25% del test matemático de FrontierMath. Pero no sabemos qué problemas concretos pudo resolver, si fueron los más complejos o no. Tampoco sabemos si cometió errores en las soluciones, hay respuestas que requieren verificación humana. Aún falta información, pero, si se confirma, estamos ante un avance extremadamente importante.

P. ¿Por qué?

R. Porque es un cambio de capacidades gracias al cual podemos empezar a hacer cosas que no podíamos hacer antes. Hasta ahora no estábamos logrando ningún progreso visible para acercarnos a la AGI. Y ahora, de repente, hemos encontrado un camino.

placeholder François Chollet. (Cedida)
François Chollet. (Cedida)

P. Hasta hace unas semanas había una gran preocupación en la industria de la IA porque, por más poder de computación y datos que se añadían, los nuevos modelos no eran mejores. Todo lo contrario, tenían más errores y eran menos fiables. Se había llegado a un callejón sin salida, a un muro infranqueable.

R. Sí, entre 2019 y 2024 hemos estado escalando los grandes modelos del lenguaje [LLM, en sus siglas en inglés] en un factor aproximado de 10.000 veces. Mientras tanto, su desempeño en el test ARC-AGI se ha mantenido plano todos estos años, o muy cercano a cero, digamos entre un 0 y un 5% de incremento. OpenAI añadió procesos de búsqueda a sus modelos, creó o1 y luego o3, y, de repente, se produjo un aumento brutal en el desempeño. Lo que esto te dice es que escalar lo que ya tenías no funcionó. El test ARC-AGI es, básicamente, un test binario de capacidades. O tienes inteligencia de verdad, en cuyo caso lo solucionas, o no la tienes, en cuyo caso te quedas cerca del cero. Demuestra que la IA hasta ahora se había estancado en un punto cercano a cero de inteligencia.

P. ¿Se puede decir que OpenAI ha roto ese muro con o3?

R. Depende. Hasta ahora se estaban avanzando los modelos de IA a base de añadir más y más datos de entrenamiento. El problema es que nos hemos quedado sin datos con los que entrenar. Cuando esto ocurre, es muy difícil seguir mejorando los modelos. Puedes conseguirlo de dos maneras, pero de forma marginal: mejorando la calidad de los datos, o creando nueva información para luego usarla en el entrenamiento. Hoy la industria emplea a unas 20.000 personas en esto, gente que está corrigiendo y anotando datos. Pero se ha convertido en algo muy caro.

"Hay quien dice: 'Los LLM actuales tienen cierta inteligencia'. Es falso, y es muy fácil demostrarlo"

P. ¿Qué ha pasado?

R. Hace unos años, allá por el 2022, había unos pocos miles de personas haciendo estas tareas. Se les pagaba muy poco, menos de 5 dólares la hora. Recordarás todas estas historias de empleados en Kenia entrenando IA. Era cierto, pero ahora ocurre lo contrario, es muy caro, necesitas a gente que sea experta en su campo, con doctorados, etc. Ahora se les paga como 50 dólares la hora. Es una inversión enorme, no tanto como el gasto en poder de computación, pero sigue siendo muy elevado. Esto explicaba en parte el famoso muro. Ahora ha habido un salto porque se ha comenzado a hacer algo diferente. OpenAI ha cambiado por completo de dirección, ya no están intentando escalar como antes su modelo base. De hecho, están haciendo modelos más pequeños, en lugar de aumentarlos. Ya no se trata de escalar, se trata de añadir procesos de búsqueda.

P. ¿En qué consisten esos procesos de búsqueda? ¿Qué es lo que hace diferente o3 respecto a GPT4 o versiones anteriores?

R. Solucionar nuevos problemas requiere tener ciertos conocimientos y habilidades, adquiridos de tu experiencia pasada, y luego ser capaz de recombinar tu conocimiento cuando surge un nuevo escenario para dar con una solución original. Hasta ahora, los modelos de IA ganaban capacidades incrementando la cantidad de conocimiento almacenado. Pero tienen cero capacidad de recombinar ese conocimiento. Lo único que pueden hacer es recuperar información del sistema y aplicarla. Sin embargo, no hay ningún tipo de inteligencia en este proceso. Es una base de datos de programas en la que puedes buscar para hacer una determinada tarea.

Hay gente que dice: “Los LLM actuales tienen cierta inteligencia”. Es falso, y es muy sencillo demostrarlo. Lo único que tienes que hacer es pedirles a estos modelos que hagan algo que no han visto antes, por ejemplo, una tarea del test ARC-AGI. No son capaces de solucionarla. Y eso que ARC no está diseñado para engañar a los modelos, es de 2019. Estaba diseñado como una forma de saber si ese sistema de AI era de alguna forma inteligente o no. La respuesta, incluso hasta comienzos de 2024, siempre ha sido no. Todo el mundo decía, “oh, la AGI está aquí”. No, la IA tenía cero inteligencia.

P. Es decir, o3 procesa la información de foma diferente a como se venía haciendo hasta ahora.

R. Sí, lo que hace o3 es que añade el paso de la recombinación. La forma en la que esta recombinación ocurre es ejecutando un proceso de búsqueda. Básicamente, usas múltiples programas, son como cadenas de pensamiento, de forma que, cuando le das al modelo un problema a resolver, lo que hace es probar muchos grupos diferentes de instrucciones para solucionarlo. Para cada una de esas opciones que prueba, las envía a un modelo de IA mayor que las evalúa. Todo está orquestado en una estructura de búsqueda en forma de árbol. El componente que permite la recombinación en o3 es el programa, es donde el conocimiento se recombina. Esta es la forma que he defendido durante años para lograr que el modelo se adapte sobre la marcha a resolver problemas: mediante la búsqueda de programas simbólicos guiada por aprendizaje profundo, y no mediante búsqueda de programas basada en lenguaje natural.

placeholder El CEO de OpenAI, Sam Altman, en una conferencia a finales de 2024. (Reuters)
El CEO de OpenAI, Sam Altman, en una conferencia a finales de 2024. (Reuters)

P. ¿Significa eso que OpenAI ha vuelto a tomar la delantera a Google, Meta o Amazon?

R. Desde un punto de vista de ingeniería, tiene que ser así. Han obtenido resultados que nadie más está logrando. La primera vez que escuché la idea de lo que está haciendo OpenAI ahora, fue en marzo de 2023 en Deepmind. Esto fue como un año y medio antes de que OpenAI anunciara o1. Es una idea muy antigua que casi con seguridad se originó en DeepMind. De hecho, no vas a encontrar ninguna idea de investigación en el mundo que se haya originado en OpenAI. Transformadores autorregresivos, grandes modelos de lenguaje en general y aplicados a chat... Todas estas cosas vienen de Google.

P. Es como el Apple de la IA. Apple casi nunca inventa algo radicalmente nuevo, pero es único recombinando cosas que ya existían para mejorarlas.

R. Sí, han sabido popularizar con ChatGPT lo que otros habían creado ya. Y lo hicieron de una forma que no podría haber hecho Google. No es una compañía que ha evolucionado para tomar grandes riesgos. Es capaz de resolver grandes problemas, pero no tomar grandes riesgos. Tiene sentido. No sé sabe muy bien en qué situación está el resto de empresas. Amazon no está en esta batalla. Meta está haciendo sobre todo ingeniería, no tanto investigación básica en IA. Google sí la está haciendo y tuvieron hace tiempo la misma idea que o3. Quizás la exploraron y tienen algo, pero no se sabe, no han mostrado nada.

"Si tuviera que hacer una predicción, te diría que o3 va a ser un completo fracaso"

R. Se rumorea que OpenAI podría crear una suscripción de 2.000 dólares al mes para acceder a o3. ¿Tiene sentido? ¿Para qué se podría usar?

R. Si tuviera que hacer una predicción, te diría que o3 va a ser un completo fracaso. A pesar de que tiene capacidades nuevas, la mayoría de la gente necesita un producto de IA que sea lo suficientemente bueno, pero no de alto rendimiento. Necesitan que sea rápido y barato. Quieren tener respuestas al instante y que sea casi gratis. Y o3 va a ser muy lento, llevará decenas de minutos obtener una respuesta, y va a ser demasiado caro. Tampoco va a ser algo que esté en absoluto al nivel de la inteligencia humana. Si miras a las puntuaciones del test ARC-AGI en el modo de alta computación, cualquier recién licenciado obtiene un 97%-98% en esta prueba. Es decir, va a ser mucho mejor que o3 y solo le tendrías que pagar unos pocos dólares por tarea, no 3.000. No es mejor opción que contratar a una persona inteligente. Así que, para ser honesto, no le veo ningún caso de uso. Es un avance increíble, pero eso no significa que vayas a poder obtener un producto de éxito.

P. Complicado entonces que OpenAI gane dinero con esto...

R. Bueno, ya pasa algo parecido con el anterior modelo, o1. Los resultados del test de ARC-AGI que anunciaron eran con una versión que usaba muchísima búsqueda interna, pero lo que luego pusieron a disposición apenas usa búsqueda, es pésimo. Igual que o1 Pro. Son muy malos y caros. ¿Me estás pidiendo 200 dólares al mes por esto? Yo lo estoy pagando y no merece la pena. Tarda 10 minutos en darte una respuesta.

P. ¿Se puede ver entonces a o3 como un avance científico del que aún no sabemos dónde nos va a llevar?

R. Sí, tal cual. Lo importante es que la IA ya no está estancada. Tenemos un nuevo camino para llegar a la AGI. o3 no es AGI, se acerca, pero no lo es. Ahora no salen las cuentas, pero tal vez en unos años sí.

P. En otro test, o3 obtuvo el puesto 175 del mundo como mejor programador. Podría sustituir a miles de desarrolladores y trabajos cualificados. ¿Va meter más presión a nivel laboral y social?

R. Ahora ya existe presión en algunos trabajos, pero no es tan intensa como se decía hace unos años que iba a ser. En la práctica, estamos viendo muy poco desplazamiento laboral debido a la IA. No es que sea cero. Si eres copy-editor, ilustrador o traductor, es más difícil encontrar empleo. Pero no es lo que se predecía. Y los ingenieros de software desde luego no van a estar en esa lista. Un LLM puede solucionar rompecabezas de programación, pero no sabe escribir el código base de un programa. No tienen composicionalidad, no pueden escalar a grandes problemas, no solo en complejidad, también en tamaño, en variables involucradas... Un humano sí puede, tan solo pasando más tiempo intentando resolver estos problemas.

P. ¿Cómo sabremos si una IA es tan inteligente como un humano? Tal vez pueda resolver el test de ARC-AGI, pero no tendrá ni inteligencia emocional, ni social, ni creatividad...

R. Lo que está claro es que nadie ha conseguido nada parecido a la AGI hasta ahora. Yo tengo una definición muy pragmática de lo que sería AGI o no. Ahora mismo, es muy fácil darle tareas a una IA que no van a poder resolver y los humanos sí. Mientras exista una tarea que un humano pueda resolver al instante y una máquina no, no tienes AGI. Cuando sea imposible encontrar algo que pueda hacer un humano pero una máquina no, entonces tendremos AGI. Si un modelo es infalible en solucionar problemas matemáticos, pero no puede mantener una conversación normal, entonces no es hay inteligencia. La clave de la AGI es que no es limitada a algunas tareas concretas. Es general.

"Creo que la AGI se inventará en algún momento dentro de 5 años, pero luego igual tarda 10 años o más en tener un impacto global"

P. Un aspecto clave de la inteligencia humana es la capacidad de aprender. No se trata tanto de ser bueno o malo en ajedrez, sino de la capacidad de aprender a jugarlo. Eso también lo tendrá que cumplir una AGI.

R. Sí, desde luego. Pero incluso si aprende a jugar al ajedrez desde cero, puede que no sea AGI, puede ser un modelo especializado en juegos de mesa, y no sabe hacer bien otras cosas. Necesitas una IA que no se aplique solo a un tipo limitado de tareas y que pueda aprender y adquirir nuevas habilidades. Lo que la hace general, de hecho, es la habilidad de adquirir cualquier habilidad, de forma tan eficiente como una persona.

P. Algunos ven en esto una línea roja, consideran peligroso que una IA aprenda por sí misma.

R. Diría que no es ni siquiera una línea. Se tiene que cumplir. Una IA no será AGI si no logra mejorarse a sí misma.

P. ¿Cuándo crees que llegará ese momento en el que tengamos una IA con inteligencia equiparable a la humana?

R. Probablemente en algún momento en los próximos 5 años. Pero hay una diferencia entre inventar algo y desplegarlo de forma que tenga un gran impacto en todo el mundo. Creo que se inventará dentro de 5 años, pero luego igual tarda 10 años o más en tener un impacto global.

P. ¿Qué pasará cuando se consiga la AGI?

R. Cuando lleguemos a este punto, será posible automatizar cualquier tarea, cualquier trabajo. Pero la pregunta es, ¿tiene sentido económico hacer esto? El modelo de IA tendrá un coste determinado para automatizar una tarea. Ese coste al principio será elevado. Los empresarios se preguntarán si el coste de usar la AGI es lo suficientemente bajo comparado con el coste de emplear a una persona. La respuesta a esta pregunta empezará a ser que sí para muchos, muchos casos. Cada vez más. Una vez alcancemos la AGI, no pasará mucho tiempo hasta que sea más económico automatizar casi todo. ¿Qué hacemos entonces? Ya no es una pregunta tecnológica, es más una cuestión política y social.

placeholder Un coche autónomo de Waymo (filial de Alphabet). (Reuters)
Un coche autónomo de Waymo (filial de Alphabet). (Reuters)

P. ¿Sería deseable automatizarlo casi todo? ¿Qué ocurrirá entonces?

R. Históricamente, hemos visto grandes oleadas de automatización y la gente sigue teniendo trabajo, solo que hacemos otras cosas. Pero si se puede automatizar todo, quizás la situación sea diferente. O no. Es difícil de decir. Quizás la gente siga teniendo empleos para que la rueda del capitalismo siga funcionando. En España tenéis una tasa de desempleo mayor, pero en EEUU la tasa siempre ha sido muy baja, quizás porque hay muchos empleos que son inútiles, pero siguen siendo necesarios. ¿Por qué?

Una explicación está en la forma en la que las grandes empresas toman sus decisiones. A medida que puedan ir despidiendo a más y más gente gracias a la automatización, se van a encontrar con más efectivo en sus cuentas. El problema es que están obligadas a hacer algo con esa tesorería. Si no hacen nada, están malgastando una ventaja competitiva, acabarán siendo adelantados por un competidor que esté invirtiendo mejor su dinero. ¿En qué puedes invertir todo ese dinero? Solo en dos cosas: comprar tiempo de las personas y comprar recursos limitados, agotables, como activos inmobiliarios. Todo lo demás es una proxie para estas dos variables, tiempo humano o recursos agotables. Es decir, si las empresas automatizan más y más, obtienen más y más efectivo, lo tienen que gastar, y en lo único que lo pueden gastar es en personas. Y, por cierto, lo van a tener que hacer, porque la forma en la que generan ingresos es vendiendo cosas a la gente. Si la gente se queda sin empleo, no tiene dinero para comprar, la economía se para y las empresas se van a la quiebra.

P. El capitalismo, por definición, impediría entonces que una máquina nos despida a todos. No está mal pensado.

R. Es un posible escenario. A largo plazo, puede que lleguemos a un mundo en el que la IA podría hacer cualquier cosa de forma competitiva respecto a las personas y, aun así, haya una baja tasa de desempleo, siempre y cuando tengas una economía sólida, como ahora la de EEUU. Si tienes una economía débil, tendrás menos actividad económica y la gente será más pobre. Creo que el capitalismo está estructurado de tal forma que necesitas trabajos, necesitas emplear y pagar a la gente por su tiempo para que tengan dinero. Si no, no funciona.

P. Acabas de dejar tu puesto en Google para montar un laboratorio cuyo objetivo es justo crear una AGI. ¿No recibiste apoyo de Google para hacerlo?

R. He estado ya nueve años en Google, es mucho tiempo, y la compañía ha cambiado mucho. La empresa a la que me uní era muy diferente. Pero sigo pensando que Google tiene muy buenas perspectivas en la industria de la IA, tiene productos muy potentes. Gemini no está teniendo mucho tirón, pero desde el punto de vista técnico en realidad es muy bueno. Si miras a otros productos que ha lanzado Google, como el traductor, o la opción de búsqueda de imágenes en Google Fotos, son muy avanzados. Los modelos de IA que más dinero están haciendo en la industria son de Google, como el algoritmo de recomendación de YouTube. Y algo que hará pronto muchísimo dinero y en lo que soy muy optimista: los coches autónomos. Solo hay una empresa que va por delante, Waymo, de Alphabet. Son los únicos con un coche autónomo de verdad. Tesla está en un distante segundo puesto, y su estrategia no va a escalar bien, están optando por usar deep learning de extremo a extremo. En 2017 ya teníamos evidencias de que no era la forma correcta de conseguirlo. Waymo lo vio, y por eso ha optado por otra vía. Va a ser la próxima industria del billón de dólares.

El pasado 20 de diciembre, cuando faltaban solo cinco días para Navidad, sucedió algo que una de las mentes más brillantes en el campo de la inteligencia artificial califica de "sorprendente". "Al principio no me lo creía. Luego vi los resultados y sí, eran ciertos. Si lo que dice OpenAI se cumple, y es un gran "sí", estamos ante el avance más importante desde la creación de ChatGPT", explica François Chollet en conversación telefónica con El Confidencial. Este joven ingeniero francés de 35 años, exingeniero de Google y afincado en EEUU desde hace más de una década, es una de las voces más respetadas a nivel mundial en el campo de la IA. No es para menos: él tiene una de las claves para alcanzar el sueño húmedo del sector, conseguir un programa tan inteligente como un humano, indistinguible de nuestra forma de razonar.

Inteligencia Artificial
El redactor recomienda