Es noticia
Stanislas Dehaene: "No es el momento de ser idiotas, la IA puede imponerse a los humanos"
  1. Tecnología
  2. Ciencia
ENTREVISTA AL NEUROCIENTÍFICO

Stanislas Dehaene: "No es el momento de ser idiotas, la IA puede imponerse a los humanos"

Como todo el mundo, el neurocientífico francés, uno de los más conocidos del mundo, intenta trolear a ChatGPT. Pero advierte de que, mientras nos reímos de la inteligencia artificial, ella aprende y se hace mejor

Foto: El neurocientífico francés Stanislas Dehaene posa para una entrevista con EC. (Isabel Blanco)
El neurocientífico francés Stanislas Dehaene posa para una entrevista con EC. (Isabel Blanco)

Stanislas Dehaene (Roubaix, 1965) empezó su carrera hace muchos años como matemático en la École Normale Supérieure de París. Era la época en la que los ordenadores comenzaban a penetrar en nuestras vidas y el joven Dehaene se interesó en si sería posible imitar a través de la computación el comportamiento de las neuronas. Así, este investigador comenzó su camino hasta la disciplina que hoy domina: la neurociencia cognitiva. Sus libros (algunos de ellos están publicados en español por Clave Intelectual) diseccionan, por ejemplo, cómo surgió la conciencia en nuestra mente, cómo empezó a integrar las matemáticas o cómo un órgano con más de 200.000 años de historia se volvió capaz de leer hace apenas 6.000, todos ellos automatismos que hoy ejecutamos sin esfuerzo aparente.

Dehaene lo compara a conducir. Cuando nos sacamos el carnet vamos en tensión, repasando cada norma de tráfico, aprendiendo las peculiaridades de la palanca de cambios o de los pedales, pero un mes más tarde ya somos capaces de llevar el coche y mascar chicle, charlar o pensar en cualquier otra cosa, con nuestro cerebro conduciendo el vehículo en segundo plano. Para estos automatismos, el francés identifica también uno de los grandes descubrimientos recientes de la neurociencia: la importancia del sueño. Antes se creía que nuestro cerebro descansaba por las noches, pero los trabajos más recientes han revelado que en realidad ejecuta una importante tarea de repetición hasta lograr el automatismo perseguido: es la causa de que un niño de dos años que un día escucha una palabra por primera vez sea capaz de repetirla al día siguiente.

Foto: Imagen: iStock/CSA-PrintStock/EC Diseño.

Pero el francés, director desde finales de los 80 de la unidad de Neurociencia Cognitiva del Instituto Nacional de Salud e Investigación Médica (INSERM) y actualmente director del NeuroSpin Brain Imaging Center de París, reconoce que pese a los fascinantes resultados de la neurociencia en los últimos años, es comprensible que de un tiempo a esta parte la conversación, las preguntas que le formulan, esté virando hacia una realidad rampante: el auge de la inteligencia artificial y, esta vez sí, su cristalización en diversos productos o servicios totalmente tangibles, que ha encarnado en el ChatGPT y los rivales que otras tecnológicas como Google están presentando en los últimos días.

De hecho, uno de sus últimos libros, La Plus Belle Histoire de l'intelligence de 2018, sobre el origen de las neuronas artificiales, está escrito a cuatro manos con Yann LeCun, científico jefe de IA en Facebook y uno de los principales referentes mundiales sobre el tema.

placeholder Dehaene, durante la entrevista con EC. (I. Blanco)
Dehaene, durante la entrevista con EC. (I. Blanco)

PREGUNTA. Suele decirse que la neurociencia, como disciplina, está en su infancia y tiene aún un largo camino por delante hasta entender de verdad cómo funciona el cerebro. Sin embargo ha bastado con esta "pequeña" contribución para alimentar la explosión de la inteligencia artificial o la creación de redes neuronales mediante la computación.

RESPUESTA. En parte, escribí mi último libro porque creo que el progreso en neurociencia va realmente muy rápido y la gente necesita estar al tanto de lo que está pasando. El progreso tecnológico es enorme. Trato de rastrear un poco la historia del campo desde el momento en que todo lo que teníamos era el estudio de lesiones cerebrales. Y no podíamos estudiarlas hasta que la persona moría y podíamos diseccionarla. Ese era el único acceso que teníamos el cerebro hace 35 años, cuando yo empecé mi carrera, pero incluso este período fue relativamente corto. Entonces surgió el milagro de las imágenes cerebrales. Y ahora tenemos dispositivos como los que recibimos en NeuroSpin hace unos años: las máquinas de MRI —en inglés, resonancia magnética por imágenes— más grandes, diseñadas por los mismos físicos que diseñaron los imanes en el CERN, lo que nos permite bajar a vóxeles —como un píxel pero en tres dimensiones— más pequeños que un milímetro en todo el cerebro y con una señal sin precedentes.

Otros investigadores están grabando cientos de neuronas en animales, incluso miles o incluso un millón de neuronas, según escuché recientemente, con imágenes ópticas. Así que la técnica está evolucionando muy rápido. Pero ver el cerebro es una cosa, y las imágenes son hermosas, y entenderlo es otra. Sí. En términos de comprensión, sería mucho más cauteloso. Creo que todavía estamos arañando la superficie y no tenemos muchos principios matemáticos, pero está usted en lo cierto, algunas de las ideas se han adaptado aunque con muchos cambios.

"Ver el cerebro es una cosa, y las imágenes son hermosas, y entenderlo es otra"

Realmente no es un modelo del cerebro, pero en la inteligencia artificial algunas de las ideas sobre las neuronas reales se han abierto paso en las redes neuronales artificiales, y eso ha sido bastante extraordinario en términos de nuestra comprensión de qué es el aprendizaje. Creo que tenemos una visión mucho mejor de cómo funciona el aprendizaje desde el punto de vista de las redes neuronales. Pero también soy muy crítico acerca de cómo aprende la inteligencia artificial. Creo que es un buen modelo para algo así como un tercio de segundo de cómputo cerebral. Cuando preguntas algo y respondes en menos de un segundo el cerebro se parece un poco a lo que sucede en las redes neuronales artificiales. Más allá de eso, es bastante diferente.

P. Supongo que el problema es que siempre estamos comparando ambas cosas, la inteligencia artificial y la humana. ¿Queremos recrear algo que es casi imposible de construir artificialmente?

R. Yo no creo que sea imposible. Creo que es bastante posible, solo que, de momento, el cerebro del bebé es mejor supercomputadora y que la mejor supercomputadora construida hasta ahora. Y también es mucho más compacta y consume 20 vatios. Es extraordinario en términos de eficiencia y procesamiento de información pero, en principio, creo que el cerebro es un dispositivo de procesamiento de información y seremos capaz de imitarlo. No hay en principio razón para pensar lo contrario.

P. En sus libros suele señalar que uno de los grandes logros recientes de la neurociencia es descubrir qué hace el cerebro cuando dormimos: repite una y otra vez las cosas que hemos aprendido durante el día, lo cual multiplica la rapidez y eficiencia del aprendizaje. ¿Por qué entonces no nos despertamos cansados, o con la sensación de haber hecho un esfuerzo?

R. No estoy seguro de qué, pero creo que la respuesta es que no somos conscientes de aquello en lo que no somos conscientes. ¿Tiene sentido? Por definición, es casi una trivialidad o una tautología, no podemos ser conscientes de los que no somos conscientes. Por lo tanto, no somos conscientes de los cálculos extraordinarios que se realizan en nuestro cerebro, no solo durante el sueño, sino también durante la vigilia fuera de nuestra conciencia. Y durante el sueño, estos cálculos son espectaculares porque el descubrimiento de la neurociencia es que el procesamiento se comprime en el tiempo. Lo que puede llevar 10 segundos o un minuto en realidad puede tomar solo un segundo o incluso menos en el tiempo comprimido de los patrones de sueño. Esto nos permite ser extremadamente eficientes en el aprendizaje. Esencialmente reúne información que encontramos dispersa durante el día. Y es por eso que, no solo aprendemos y consolidamos, sino que hacemos descubrimientos durante el sueño. Algunas personas piensan que esto es solo para los científicos, ya sabes, científicos excepcionales como Kekulé, cuando descubrió la estructura del anillo de benzeno —el químico orgánico alemán August Kekulé descubrió esto con una visión en sueños de una serpiente mordiéndose la cola— pero, de hecho, estos descubrimientos están ocurriendo en cada uno de nosotros, especialmente cuando somos niños. Es tres veces más potente en niños que en adultos, en realidad, el poder de una noche de sueño. Así que también hay una lección muy práctica. Debemos respetar el sueño y, en particular, debemos respetar el sueño de nuestros hijos y decirles que duerman más.

"Muchos trastornos de atención mejoran cuando se duerme mejor"

P. Mi pregunta iba más por si el cerebro, en esa fase inconsciente, se alimenta con algún otro tipo de combustible. Cuando durante el día te enfrentas a una actividad intelectual sientes que necesitas un descanso, pero de noche no.

R. Es todo lo mismo, es la misma energía. Y de hecho, hay un mecanismo interesante por el cual cuanto más has aprendido durante el día, más presión de sueño existe. Por tanto hay una necesidad de dormir, que en parte depende de cuánto ha sido desafiado el cerebro a aprender durante el día.

P. ¿Y también ha encontrado relaciones entre el sueño y los trastornos del aprendizaje?

R. Existe una sospecha. No es perfecta, pero algo hay. Hay muchos casos interesantes de los llamados trastornos de atención que no reaccionan a los fármacos habituales, pero lo hacen cuando se mejora el sueño de los pacientes. En particular, hay niños con problemas de respiración, tienen apnea del sueño. Y durante el día parece que tienen problemas de atención, pero desaparecen por completo cuando logran dormir del tirón. Así que hay un mensaje importante. No digo que todos los trastornos de atención sean de este tipo, pero ciertamente muchos pueden mejorar cuando se duerme mejor.

placeholder El neurocientífico francés Stanislas Dehaene firma un ejemplar de un libro en Madrid. (I. B.)
El neurocientífico francés Stanislas Dehaene firma un ejemplar de un libro en Madrid. (I. B.)

P. En relación al cerebro matemático, sobre el que usted tanto ha escrito, quería preguntarle si ese sustrato matemático que tenemos en el cerebro afecta, por ejemplo, al comportamiento o al carácter. Por ejemplo, si la aversión al riesgo, que es una característica que algunas personas tienen y otras no, puede estar mediada por un cálculo interno de probabilidades.

R.Es una pregunta complicada. Tenemos un sentido de probabilidad que es, en gran parte, inconsciente y que nos ayuda en situaciones concretas en las que nos enfrentamos a un conjunto de objetos. Podemos juzgar con cierta intuición, cuál será el resultado más probable. Lo llamamos el cerebro estadístico. Tenemos un cerebro estadístico que es capaz de anticipar usando probabilidades. Sin embargo, esto es, ya sabe, un dominio relativamente limitado, las probabilidades de las cosas que suceden en la física. Lo maravilloso de las matemáticas es que tenemos lo que llamo reciclaje neuronal. Partimos de un núcleo de habilidades, pero las extendemos mucho más ampliamente. En el caso de las probabilidades, las aplicamos después a, no sé, la física cuántica o la teoría económica. No estoy seguro si esto es parte del núcleo original de habilidades que tenemos, pero ciertamente podemos expandirlo con matemáticas formales.

Uno de los descubrimientos que hemos hecho y que muestro en mi libro más reciente es que cuando la gente aprende matemáticas formales, incluso con una teoría muy abstracta o pensando en dominios matemáticos completamente esotéricos, se basan en los mismos circuitos cerebrales que usamos cuando somos niños para pensar en números y en probabilidades de forma concreta. En cierto sentido, hay una pirámide de conocimiento de las matemáticas, pero siempre se basa en los mismos viejos circuitos, que reciclamos.

P. Antes ha mencionado cómo cambió sus vidas cuando pudieron ver por primera vez el cerebro en acción, con los aparatos MRI. ¿Qué tecnología les permitirá llegar hasta la próxima frontera de conocimiento, disponemos ya de ella?

R. Bueno, la resonancia magnética por imágenes es muy limitada. Es una técnica hermosa, pero para el MRI es muy difícil llegar por debajo de un milímetro o tal vez una fracción de milímetro, y dentro de un milímetro de corteza todavía tienes varias decenas de miles de neuronas. Así que no estamos viendo las neuronas individualmente. Y además, no estamos viendo la actividad eléctrica de las neuronas. Solo estás viendo el flujo de sangre, que llega mucho más tarde. Entonces, queremos tecnologías que nos permitan observar la actividad de las neuronas mucho más directamente, en el laboratorio tenemos otra técnica que se llama magnetoencefalografía. Es un casco gigante que nos permite registrar señales magnéticas, un poco como el EEG, que también es una técnica poderosa, pero las señales magnéticas permiten ser más preciso en el espacio.

"Queremos tecnologías que nos permitan observar la actividad de las neuronas directamente"

Una cosa que nos encantaría tener es esta técnica pero miniaturizada. El de magnetoencefalografía es un enorme sistema lleno de helio líquido, por lo que debe enfriarse. Además, es muy caro tener helio líquido. Entonces, están surgiendo nuevas máquinas que consisten en un pequeño cubo que puedes acercar mucho a la cabeza y no necesita enfriamiento ni nada. Podría llevarlo y tomar medidas en cualquier lugar, básicamente. Así que esta es una de las técnicas potenciales.

P. De la misma manera que la neurociencia ha ayudado a construir mejores redes neuronales e inteligencia artificial, ¿cómo están ayudando estas dos disciplinas a entender mejor el cerebro? ¿Hay reciprocidad?

R. Al menos de dos maneras diferentes. Primero, estamos usando la IA para asociarnos con ella, por ejemplo, estas señales del cerebro de las que hablaba por magnetoencefalografía. Ya nunca miramos esas señales manualmente. Tenemos a la IA minando los datos para nosotros y buscando patrones. Lo llamamos decodificación cerebral. Partimos de este gran conjunto de señales que están por todo el cerebro y lo decodificamos: es probable que el cerebro estuviera viendo una cara o es probable que el cerebro estuviera pensando en el número tres. Entonces, gracias a la IA pasamos de los registros a las señales significativas.

El segundo aspecto de la IA es como modelo del cerebro. La IA está tratando de imitar al cerebro y nos ayuda a teorizar acerca de cómo funciona el cerebro. Así que estoy impartiendo mi curso en París en este momento sobre la idea, común entre la inteligencia artificial y la teoría del cerebro, de que cada uno de los pensamientos que tenemos es como un vector en un espacio gigante. Hay un millón de neuronas, hay un espacio vectorial de un millón de dimensiones. Ve lo que quiero decir, es un concepto matemático que podemos probar con mucha precisión en modelos de simulación en IA, y luego podemos compararlo con lo que sucede en el cerebro.

La IA no es capaz de hacer sintaxis del modo en que la hacemos los humanos

P. Supongo que conoce el programa DALL-E, también basado en la tecnología GPT-3. Permite a alguien decir algo como pinta una calle de Manhattan al estilo Renoir y obtener un cuadro. ¿Qué nos dice esto acerca de la creatividad, que antes asociábamos solo a los humanos? ¿Puede una máquina llegar a ser realmente creativa?

R. Bueno, en primer lugar, esta máquina en cierto modo hizo trampa porque se ha comido todas las imágenes del mundo. Sí, incluso hay problemas con los derechos de autor porque realmente ha sido entrenado con el trabajo de artistas reales, podría discutirse si eso es muy creativo o no. Pero tambien podríamos discutir si cualquier artista es creativo, dado que sus ideas están basadas en la cultura que tienen a su alrededor.

La otra cosa es que estas máquinas siguen siendo extraordinariamente limitadas. El otro día, uno de mis estudiantes estaba haciendo este experimento. Le hizo dos preguntas a DALL-E. Una era: ¿puedes dibujarme a Darth Vader con un vestido del siglo XVIII? Y aquí lo tienes, un precioso Darth Vader, increíble. Y luego la siguiente pregunta es algo que le hacemos a nuestros sujetos humanos. ¿Puedes dibujar un cuadrado verde a la izquierda del círculo rojo? Catástrofe. El cuadrado era rojo. El cuadrado no estaba a la izquierda. La respuesta nunca era correcta, nunca, ahí es donde se ven los límites del sistema. El sistema no es capaz de hacer sintaxis del modo en que la hacemos los humanos, al menos ese sistema en particular.

Cada vez que digo algo así, tengo que ser muy cauteloso porque evoluciona muy rápido. Pero al menos, de momento, el sistema todavía no funciona como un humano en absoluto. Aunque, en cierto sentido es creativo porque está creando demasiadas cosas que no son el resultado deseado. Puedes llamarlo creatividad o estupidez artificial.

placeholder El neurocientífico francés Stanislas Dehaene durante una entrevista con EC (I. B.)
El neurocientífico francés Stanislas Dehaene durante una entrevista con EC (I. B.)

P. ¿Y ChatGPT, está usted intentando dejarlo en evidencia?

R. Oh, sí. Oh, sí. Es un deporte nacional.

Es un poco tonto, porque yo trabajo mucho en matemáticas, trato de desafiar profundamente algunas afirmaciones matemáticas en ChatGPT y claramente es un dominio en el que no es muy bueno. Entonces, hace solo una semana, pregunté si la división era conmutativa y ChatGPT dijo sí, la división es conmutativa, conmutativa es cuando puedes cambiar el orden y el resultado no cambia. Este es claramente el caso de la división: ocho dividido por cuatro es dos, cuatro dividido por ocho es dos. Jajaja. Ya sabe, esto es inteligencia artificial. La cosa es que volví a hacer la pregunta y ahora la respuesta es correcta. Creo que lo realmente extraordinario de estas máquinas es que todavía están aprendiendo y estamos apenas al comienzo de estas habilidades.

P. Todos las estamos alimentando con este tipo de troleos, sí.

R. Y creo que es demasiado fácil descartar estas máquinas por este tipo de estupideces, porque los ingenieros ya están trabajando con mucho cuidado para llenar estos huecos. Y mientras hablamos, el hueco probablemente ya está subsanado.

Entonces tendría mucho cuidado, las máquinas tienen una enorme ventaja: en nuestra biología olvidamos y morimos, y todo lo que aprendimos en la vida se pierde. Pero estas máquinas no olvidarán nada. No se olvidarán y, por lo tanto, será un enfoque muy acumulativo. Cada generación de máquinas está mejorando, mientras que no se puede decir lo mismo de la educación humana. Tenemos que seguir impulsando la educación humana. La educación humana está en gran riesgo en este momento. Hablo de un país, Francia, que tiene una gran dificultad en educación, a tal punto que el rendimiento en matemáticas ha ido cayendo dramáticamente en los últimos 30 años. Si no prestamos atención, corremos el riesgo de perder el resto. Uno amigo que estuvo de visita la semana pasada, es un especialista de IA, y me dijo que no era momento para ser idiotas, no tenemos la posibilidad de ser idiotas en este momento. Las máquinas pueden imponerse en algún momento, y si lo hacen será porque nosotros hemos estudiado el cerebro y ellas se inspirarán en eso.

P. Antes comentaba que nuestro cerebro, al automatizar algunas tareas como la lectura, está liberando espacio para otros usos. ¿No puede pasar algo parecido con la IA, que se encargue de algunas rutinas? Obviamente tendríamos que seguir usando el resto del cerebro para algo.

R. Creo que en el mejor de los mundos, la IA será un maravilloso asistente para ayudarnos con dominios que son muy difíciles para nuestro cerebro. Ya ocurre con las calculadoras u ordenadores. En la próxima generación, podrían ser tareas de programación mucho más difíciles, ChatGPT podría diseñar programas sociales o, por qué no, analizar datos. Tengo muchas ganas de colaborar con cualquier investigador en IA, pero sospecho que habrá una colaboración en lugar de un reemplazo.

Stanislas Dehaene (Roubaix, 1965) empezó su carrera hace muchos años como matemático en la École Normale Supérieure de París. Era la época en la que los ordenadores comenzaban a penetrar en nuestras vidas y el joven Dehaene se interesó en si sería posible imitar a través de la computación el comportamiento de las neuronas. Así, este investigador comenzó su camino hasta la disciplina que hoy domina: la neurociencia cognitiva. Sus libros (algunos de ellos están publicados en español por Clave Intelectual) diseccionan, por ejemplo, cómo surgió la conciencia en nuestra mente, cómo empezó a integrar las matemáticas o cómo un órgano con más de 200.000 años de historia se volvió capaz de leer hace apenas 6.000, todos ellos automatismos que hoy ejecutamos sin esfuerzo aparente.

Ciencia Neurociencia Inteligencia Artificial Lo mejor de EC
El redactor recomienda