Científicos leen la mente de ratones y reconstruyen en vídeo lo que acaban de ver
Una nueva IA ha sido capaz de reconstruir en vídeo, y con una precisión inédita, exactamente lo que ve un ratón. La técnica que puede ayudar a la neurociencia a comprender cómo construimos la realidad
Un equipo de investigadores ha conectado el cerebro de un ratón a un ordenador y ha conseguido reproducir exactamente lo que acaban de ver sus ojos. Para lograrlo, han utilizado un nuevo modelo de inteligencia artificial capaz de registrar en tiempo real la actividad de las neuronas del ratón que está viendo un vídeo.
El sistema no adivina ni interpreta. Tampoco dibuja algo similar al vídeo original a partir de una base de datos de imágenes de internet como hace la IA generativa. Reconstruye el vídeo píxel a píxel, directamente desde la señal neuronal en bruto. Como resultado, los investigadores han podido obtener clips de 10 segundos a 30 fotogramas por segundo que reflejan con sorprendente exactitud lo que el animal estaba viendo.
"Queríamos encontrar una forma mejor de investigar cómo interpreta el cerebro lo que vemos", asegura Joel Bauer, investigador del University College de Londres y autor principal del estudio publicado ayer en la revista eLife. "Los métodos actuales para comprender lo que representan grupos específicos de neuronas no son muy generalizables a situaciones que no se han probado específicamente. Por eso, queríamos desarrollar un método que pudiera capturar lo que se representa en el cerebro y compararlo con la realidad".
Cómo funciona
El experimento utilizó técnicas de imagen por calcio de dos fotones para registrar en vivo la actividad de unas 8.000 neuronas de la corteza visual primaria de cada ratón—la primera región del cerebro que recibe y procesa la información visual procedente de los ojos— mientras el animal permanecía despierto. Es la zona del cerebro encargada de procesar la información visual más básica: bordes, contrastes, movimiento.
A partir de esos datos neuronales, el modelo de codificación (llamado DwiseNeuro) toma un vídeo de ruido gris puro y, de forma iterativa, lo va modificando hasta que la actividad cerebral que ese vídeo generaría en el modelo coincide exactamente con la actividad real medida en el animal. Algo así como afinar un instrumento hasta que su sonido sea un reflejo fiel de la partitura.
Según el estudio, el sistema logró una correlación a nivel de píxeles de 0,57 entre el vídeo original y el reconstruido. Esto, aseguran, es más del doble que los intentos anteriores con roedores despiertos, que se quedaban en torno a 0,24. Además, el uso simultáneo de varios modelos trabajando en equipo —una técnica conocida como ensembling— mejoró la precisión final casi un 28%.
"Con este enfoque, pudimos lograr reconstrucciones de alta calidad de videoclips de 10 segundos", añade Bauer. "La precisión de las reconstrucciones mejoró con la inclusión de datos de más neuronas individuales, lo que demuestra la importancia de contar con datos neuronales completos".
La carrera por reproducir lo que vemos
Hasta ahora, los avances más espectaculares en decodificación visual se habían conseguido en humanos usando resonancia magnética funcional, una tecnología que mide cambios en el flujo sanguíneo, no en las neuronas directamente. Su baja resolución temporal obliga a los sistemas a apoyarse en modelos generativos de difusión —las mismas IA que crean imágenes a partir de texto— para rellenar lo que el cerebro no alcanza a transmitir con suficiente detalle.
El resultado es correcto, pero no necesariamente fiel a lo que se está viendo. Si el cerebro registra un perro, la IA genera un perro bonito basado en millones de fotos de internet. No el perro exacto que el sujeto tenía delante. Sin embargo, el nuevo modelo prescinde de ese intermediario y muestra solo lo que sale del cerebro.
La técnica tiene sus límites. Falla cuando los detalles espaciales son demasiado pequeños o cuando el movimiento es muy rápido. Y la actividad cerebral de un ratón despierto no es un entorno estable, sino que fluctúa según el estado fisiológico del animal, desde la dilatación de sus pupilas hasta la velocidad a la que corre sobre la rueda de su jaula.
Para qué sirve
Los expertos señalan que esta tecnología podría permitir estudiar fenómenos visuales que hasta ahora eran inaccesibles. Podría revelar qué imagen exacta construye el cerebro cuando anticipa algo que no ocurre —la llamada codificación predictiva— o qué ocurre cuando el animal presta atención selectiva a un objeto concreto.
Si se confirma que es posible reconstruir con esta fidelidad la experiencia visual de un ser vivo a partir de sus neuronas, las implicaciones van mucho más allá del laboratorio. Comprender cómo el cerebro convierte la luz en significado es, al fin y al cabo, comprender cómo construimos la realidad.
"No tenemos una representación perfecta del mundo en nuestras mentes", dice Bauer. "El proceso de procesamiento visual distorsiona y deforma nuestra representación de tal manera que modifica la información. Esta desviación entre la realidad y las representaciones en el cerebro no es necesariamente un error, sino una característica que refleja cómo nuestras mentes interpretan y aumentan la información sensorial. Queremos explorar cómo ocurre esto en el cerebro".
Un equipo de investigadores ha conectado el cerebro de un ratón a un ordenador y ha conseguido reproducir exactamente lo que acaban de ver sus ojos. Para lograrlo, han utilizado un nuevo modelo de inteligencia artificial capaz de registrar en tiempo real la actividad de las neuronas del ratón que está viendo un vídeo.