Proponen un modelo más sencillo para entender redes de la memoria

El trabajo liderado por el físico Emilio Kropff, de la Fundación Instituto Leloir, plantea la posibilidad de que recuerdos complejos sean guardados por redes neuronales más simples de lo que se pensaba.

04 de febrero, 2025 | 00.05

Una frase repetida hasta el cansancio es que el cerebro humano es “el objeto más complejo del universo”. Y a nadie que haya intentado explorarlo o entender lo que se sabe hasta el momento le parece exagerado. Pero… ¿podría ocurrir que en realidad se estructurara de forma más simple de lo que se piensa? 

Un equipo de investigadores argentinos liderados Emilio Kropff, investigador del Conicet y jefe del Laboratorio de Fisiología y Algoritmos del Cerebro de la Fundación Instituto Leloir, se embarcó en el desafío de contestar esta pregunta. En un trabajo publicado recientemente en la revista eLife (https://elifesciences.org/reviewed-preprints/89851) postula un modelo más sencillo que los desarrollados hasta ahora para explicar cómo funciona la memoria espacial, y plantea la posibilidad de que tareas complejas del cerebro son realizadas por redes neuronales mucho más sencillas de lo que se pensaba hasta ahora. La primera autora del trabajo es la física Sabrina Benas. 

Emilio Kropff

Este proyecto lo hacemos colectivamente. Sostené a El Destape con un click acá. Sigamos haciendo historia.

SUSCRIBITE A EL DESTAPE

Hoy tenemos herramientas para registrar la actividad de muchas neuronas en el cerebro simultáneamente y podemos observar cada vez mejor cómo se activan –explica Kropff–. Lo que no podemos ver es cómo están conectadas entre sí. Tampoco hay muchas herramientas en vista. Por eso, se utilizan modelos computacionales en los que se propone cómo podrían estar conectadas y después se verifica si son compatibles con la actividad que está registrando”. 

Las neuronas no actúan de forma individual; es decir, un recuerdo no se guarda en una única neurona. Los modelos más modernos del funcionamiento del cerebro se basan en “redes de conectividad” recurrente o “redes de atractores”, en las que las neuronas “hablan” mucho entre sí en lugar de “escuchar” lo que viene de afuera. “Es esta concepción la que le valió el Premio Nobel de Física 2024 a John Hopfield [que desarrolló el modelo de redes neuronales que está en la base de la inteligencia artificial de la actualidad]. Cada vez hay más evidencia de que es así como el cerebro produce memorias [recuerdos]. La idea es que, ante una determinada experiencia, se nos activan ciertas neuronas que están conectadas con el mundo exterior. Si yo logro reproducir ese mismo estado de actividad en un futuro, estoy recuperando la experiencia que tuve”.

Los recursos del cerebro apuntados a reproducir una actividad que tuvimos en el pasado son esas “redes de atractores”, así llamadas para indicar que “atraen la actividad del cerebro”. Por ejemplo, al decir "jugar al tenis", se reactivan un grupo de neuronas que normalmente participarían de esa actividad. Se podría imaginar como una especie de “replay” o “revival”.

Desde el punto de vista de los modelos computacionales, esta red  se llama “red de atractor” o “de Hopfield”, que fue quien lo propuso en los años 80. “Hay evidencias crecientes de que se encuentran en varios lugares y quizás en todo el cerebro –destaca Kropff–. Nuestro trabajo parte de algo un poco más complejo. Si uno piensa en una foto, eso es lo que se llamaría una memoria puntual, porque no tiene dimensiones. Pero hay otras que uno puede recorrer; por ejemplo, una canción. Esa memoria que se puede repasar a lo largo del tiempo, es una sola, pero es distinta en cada punto, va cambiando. Lo mismo ocurre con un pasillo: si bien siempre es el mismo, al ir recorriendo distintos puntos, va cambiando. Para eso hace falta algo más complejo, que sería una red atractora unidimensional. Y también las hay bidimensionales. Si uno quiere recordar su casa, para recorrerla entera tiene que moverse en dos dimensiones, y en cada punto va a ser un poco distinta. Sin embargo, tiene una memoria de su casa y puede imaginarse parado en cualquier lugar. Y eso es posible porque tiene una única memoria indivisible, pero que está formada por infinitos puntos en dos dimensiones”.

Mapas espaciales de neuronas de la corteza entorrinal, región del cerebro fundamental para la memoria y la ubicación espacial, modeladas en una computadora (FUNDACIÓN INSTITUTO LELOIR)

En su trabajo, los científicos se preguntaron sobre la arquitectura de esos atractores; es decir, cómo estarían conectadas entre sí las neuronas que forman ese tipo de memorias multidimensionales. Lo novedoso es que encontraron una arquitectura muy simple que puede servir para guardar memorias más complejas: una estructura de una dimensión que sirve para formar un atractor en dos dimensiones. Y demostraron su factibilidad por medio de simulaciones computacionales. 

“En particular, nos concentramos en las ‘grid cells’ o células de retícula [encargadas de la memoria espacial] –explica Kropff–. Se supone que forman un atractor bidimensional, pero mostramos cómo pueden cumplirse todas las propiedades que tienen estas neuronas empleando conexiones mucho más sencillas, usando un atractor de solo una dimensión. Y dejamos abierta la posibilidad de que incluso otras arquitecturas más sencillas también sirvan. Hasta ahora, siempre se creía que la forma en que se conectan las neuronas, la arquitectura, tiene que poseer la misma complejidad de lo que van a representar. Nosotros mostramos que no es necesario. Una arquitectura mucho más sencilla es suficiente para que las grid cells representen bien el espacio en dos dimensiones. El mensaje de nuestro trabajo es que, tal vez, una estructura sencilla puede servir para muchas situaciones distintas de complejidad variada”.

Para demostrarlo, trabajaron con la topóloga también argentina Ximena Fernández, que desarrolló herramientas matemáticas que permitieron ilustrar que en este caso particular, una red de una dimensión y otra de dos dimensiones tenían exactamente la misma actividad. “Si en un momento se activa una neurona, eso lo puedo pensar como un punto en un espacio muy grande –detalla Kropff–. Ahora, si yo esta red la miro durante mucho tiempo, tengo un conjunto de puntos que forman una nube. Los topólogos tienen herramientas [conceptuales] para describir qué forma tiene ese objeto. Y lo que vimos es que tanto en el caso de la red sencilla como en el de la red compleja, la forma que tenía esta nube de puntos era exactamente la misma”. 

Y concluye: “El universo es complejo. ¿Necesito tener un cerebro igual de complejo para explicarlo o lo puedo atacar con herramientas más sencillas? Lo que nosotros encontramos es un ejemplo en el que instrumentos simples se adaptan a un universo complejo. Eso no quiere decir que necesariamente estas redes en el cerebro humano sean sencillas. Lo que sostenemos es que este mismo problema se puede atacar con redes más sencillas. Cada neurona es un agente individual que está conectado con otras, puede percibir cosas a través de esas conexiones y tiene que tomar decisiones (con quién se conecta más, con quién menos) con muy poca información. Por eso, cuesta mucho pensar cómo se logra esa complejidad. Y nosotros pensamos que tiene que ser a través de reglas sencillas. A esto lo llamamos ‘atractores flexibles’, porque tienen baja complejidad, pero se adaptan a complejidades más altas. La principal característica de un atractor flexible es que su arquitectura es mucho más simple que lo que va a representar. Esta simplificación se aplica a los modelos que usamos para estudiar las redes, pero también proponemos que el cerebro podría ser más sencillo de lo que pensamos”.

Para el neurocientífico argentino Agustín Ibañez, director científico del Latin American Brain Institute y el grupo de Predictive Brain Health Modelling (algo así como Modelado Predictivo de la Salud Cerebral), que no participó en la investigación, “Básicamente, el trabajo apunta a responder cómo las neuronas organizan la navegación espacial .Ya sabemos que hay una especie de GPS del cerebro (las células GRID o de retícula) en la corteza entorrinal [región que se encuentra en el lóbulo temporal y que es fundamental para la memoria, la orientación y la percepción del tiempo]. Forman redes hexagonales que nos ayudan a orientarnos en el espacio. Por mucho tiempo, pensamos que este sistema dependía de una estructura rígida. Este estudio sugiere una arquitectura bastante más simple y flexible, dinámica, que se ajusta a los datos espaciales y que permite organizar la actividad de estas neuronas con mucha precisión. Podría imaginarse como si el cerebro tuviera un entramado de carreteras. Uno pensaría que éstas siguen un mapa fijo, sin embargo este trabajo sugiere que funcionan más bien como caminos en la arena que se pueden ir cambiando a través de la experiencia y de señales externas. Está muy bueno el trabajo, desafía ideas previas y sugiere que con modelos más simples podemos entender la actividad cerebral de forma más flexible. Por supuesto, tiene limitaciones. Es una alternativa prometedora, pero no está probada en entornos reales, con fenómenos cognitivos más complejos. Todavía no sabemos si se puede aplicar a otros patrones de actividad cerebral”.