La capacidad de almacenamiento de la memoria del cerebro humano es un orden de magnitud mayor de lo que se pensaba, según informaron la semana pasada investigadores del Instituto Salk de Estudios Biológicos. Los hallazgos, que acaban de ser publicados en eLife, son significativos no sólo por lo que dicen sobre el espacio de almacenamiento, sino, sobre todo, porque nos empujan hacia una mejor comprensión de cómo, exactamente, se codifica la información en nuestros cerebros.
La cuestión de la cantidad de información que nuestros cerebros pueden albergar es antigua. Sabemos que el cerebro humano está formado por unos 100.000 millones de neuronas, y que cada una de ellas establece 1.000 o más conexiones con otras neuronas, lo que suma unos 100 billones en total. También sabemos que la fuerza de estas conexiones, o sinapsis, está regulada por la experiencia. Cuando dos neuronas a cada lado de una sinapsis están activas simultáneamente, esa sinapsis se vuelve más robusta; la espina dendrítica (la antena de la neurona receptora) también se hace más grande para soportar el aumento de la fuerza de la señal. Se cree que estos cambios de fuerza y tamaño son los correlatos moleculares de la memoria. Los diferentes tamaños de las antenas suelen compararse con los bits de un código informático, sólo que en lugar de 1s y 0s pueden asumir un rango de valores. Hasta la semana pasada, los científicos no tenían ni idea de cuántos valores exactamente. Basándose en toscas mediciones, habían identificado sólo tres: pequeña, mediana y grande.
Pero una curiosa observación llevó al equipo de Salk a afinar esas mediciones. En el curso de la reconstrucción de un hipocampo de rata, un área del cerebro de los mamíferos implicada en el almacenamiento de la memoria, se dieron cuenta de que algunas neuronas formaban dos conexiones entre sí: el axón (o cable emisor) de una neurona se conectaba con dos espinas dendríticas (o antenas receptoras) en la misma neurona vecina, lo que sugería que se estaban transmitiendo mensajes duplicados del emisor al receptor. Dado que ambas dendritas recibían información idéntica, los investigadores sospecharon que serían similares en tamaño y fuerza. Pero también se dieron cuenta de que si había diferencias significativas entre las dos, podría apuntar a una capa de complejidad totalmente nueva. Si las espinas tenían una forma o un tamaño diferente, razonaron, el mensaje que transmitían también sería ligeramente diferente, incluso si ese mensaje procedía del mismo axón.
Así que decidieron medir los pares de sinapsis. Y efectivamente, encontraron una diferencia de tamaño del 8 por ciento entre las espinas dendríticas conectadas al mismo axón de una neurona señalizadora. Esa diferencia puede parecer pequeña, pero cuando introdujeron el valor en sus algoritmos, calcularon un total de 26 tamaños de sinapsis únicos. Un mayor número de tamaños de sinapsis significa más capacidad para almacenar información, lo que en este caso se tradujo en una capacidad de almacenamiento 10 veces mayor en el hipocampo en su conjunto que la que había indicado el modelo anterior de tres tamaños. «Es un orden de magnitud más de capacidad de lo que sabíamos que había», dice Tom Bartol, científico del Instituto Salk y autor principal del estudio.
Pero si nuestra capacidad de memoria es tan grande, ¿por qué olvidamos las cosas? Porque la capacidad no es realmente la cuestión, dice Paul Reber, investigador de la memoria en la Universidad de Northwestern que no participó en el estudio. «Cualquier análisis del número de neuronas llevará a pensar en la tremenda capacidad del cerebro humano. Pero no importa porque nuestro proceso de almacenamiento es más lento que nuestra experiencia del mundo. Imagine un iPod con capacidad de almacenamiento infinita. Aunque pueda almacenar todas las canciones jamás escritas, todavía tiene que comprar y cargar toda esa música y luego sacar canciones individuales cuando quiera reproducirlas».»
Reber dice que es casi imposible cuantificar la cantidad de información en el cerebro humano, en parte porque consiste en mucha más información de la que somos conscientes: no sólo hechos y caras y habilidades medibles, sino funciones básicas como la forma de hablar y moverse y otras de orden superior como la forma de sentir y expresar emociones. «Asumimos mucha más información del mundo que el ‘¿qué recuerdo de ayer?'». dice Reber. «Y todavía no sabemos realmente cómo escalar desde el cálculo de la fuerza sináptica hasta el mapeo de estos complejos procesos»
El estudio Salk nos acerca un poco más, sin embargo. «Han hecho una reconstrucción increíble», dice Reber. «Y añade significativamente a nuestra comprensión no sólo de la capacidad de la memoria, sino lo que es más importante, de lo complejo que es realmente el almacenamiento de la memoria». Los descubrimientos podrían allanar el camino hacia todo tipo de avances: ordenadores más eficientes energéticamente que imiten las estrategias de transmisión de datos del cerebro humano, por ejemplo, o una mejor comprensión de las enfermedades cerebrales que implican sinapsis disfuncionales.
Pero primero los científicos tendrán que ver si los patrones encontrados en el hipocampo se mantienen para otras regiones del cerebro. El equipo de Bartol ya está trabajando para responder a esta pregunta. Esperan trazar un mapa de las sustancias químicas, que pasan de neurona a neurona, que tienen una capacidad aún mayor que las sinapsis variables para almacenar y transmitir información. En cuanto a una medición precisa de la capacidad de todo el cerebro, «todavía estamos muy lejos», dice Bartol. «El cerebro aún guarda muchos, muchos más misterios para que los descubramos»
«Los recuerdos podrían no vivir en las sinapsis de las neuronas»
«¿Puede tu cerebro estar realmente ‘lleno’?
«Reconstruir los recuerdos hace que se mantengan»
«¿Por qué la memoria es tan buena y tan mala?»