A capacidade de armazenamento de memória do cérebro humano é uma ordem de magnitude maior do que se pensava anteriormente, investigadores do Salk Institute for Biological Studies reportaram na semana passada. As descobertas, recentemente detalhadas no eLife, são significativas não só pelo que dizem sobre o espaço de armazenamento mas, mais importante ainda, porque nos empurram para uma melhor compreensão de como, exactamente, a informação é codificada no nosso cérebro.
A questão de quanta informação o nosso cérebro pode conter é uma questão de longa data. Sabemos que o cérebro humano é constituído por cerca de 100 biliões de neurónios, e que cada um deles faz 1.000 ou mais ligações a outros neurónios, somando um total de cerca de 100 triliões. Sabemos também que os pontos fortes destas ligações, ou sinapses, são regulados pela experiência. Quando dois neurónios de cada lado de uma sinapse estão activos simultaneamente, essa sinapse torna-se mais robusta; a coluna dendrítica (a antena no neurónio receptor) também se torna maior para suportar o aumento da força do sinal. Acredita-se que estas alterações de força e tamanho são os correlatos moleculares da memória. Os diferentes tamanhos de antena são frequentemente comparados com bits de código informático, apenas em vez de 1s e 0s podem assumir uma gama de valores. Até à semana passada, os cientistas não tinham ideia de quantos valores, exactamente. Com base em medições brutas, tinham identificado apenas três: pequenos, médios e grandes.
Mas uma observação curiosa levou a equipa Salk a refinar essas medições. No decurso da reconstrução de um hipocampo de rato, uma área do cérebro do mamífero envolvida no armazenamento de memória, notaram que alguns neurónios formariam duas ligações um com o outro: o axónio (ou cabo de envio) de um neurónio ligar-se-ia com duas espinhas dendríticas (ou antenas de recepção) no mesmo neurónio vizinho, sugerindo que mensagens duplicadas estavam a ser passadas do remetente para o receptor. Como ambos os dendritos estavam a receber informação idêntica, os investigadores suspeitavam que seriam semelhantes em tamanho e força. Mas também perceberam que se houvesse diferenças significativas entre os dois, isso poderia apontar para toda uma nova camada de complexidade. Se as espinhas fossem de uma forma ou tamanho diferente, eles raciocinavam, a mensagem que passavam seria também ligeiramente diferente, mesmo que essa mensagem viesse do mesmo axon.
Então decidiram medir os pares de sinapse. E, com certeza, encontraram uma diferença de tamanho de 8% entre as espinhas dendríticas ligadas ao mesmo axónio de um neurónio de sinalização. Essa diferença pode parecer pequena, mas quando ligaram o valor aos seus algoritmos, calcularam um total de 26 tamanhos únicos de sinapse. Um maior número de tamanhos de sinapse significa maior capacidade de armazenamento de informação, o que neste caso se traduziu numa capacidade de armazenamento 10 vezes maior no hipocampo como um todo do que o modelo anterior de três tamanhos tinha indicado. “É uma ordem de magnitude mais capacidade do que sabíamos que existia”, diz Tom Bartol, cientista do Instituto Salk e o autor principal do estudo.
Mas se a nossa capacidade de memória é tão grande, porque é que nos esquecemos das coisas? Porque a capacidade não é realmente a questão, diz Paul Reber, um investigador de memória da Northwestern University que não esteve envolvido no estudo, “Qualquer análise do número de neurónios levará a uma sensação da tremenda capacidade do cérebro humano. Mas isso não importa porque o nosso processo de armazenamento é mais lento do que a nossa experiência do mundo. Imagine um iPod com uma capacidade de armazenamento infinita. Mesmo que se possa armazenar todas as canções alguma vez escritas, ainda se tem de comprar e carregar toda aquela música e depois puxar canções individuais para cima quando se quer tocá-las”
Reber diz que é quase impossível quantificar a quantidade de informação no cérebro humano, em parte porque consiste em muito mais informação do que aquela que conscientemente conhecemos: não só factos e rostos e capacidades mensuráveis, mas também funções básicas como falar e mover-se e funções de ordem superior como sentir e expressar emoções. “Recebemos muito mais informação do mundo do que “do que me lembro de ontem””. diz Reber. “E ainda não sabemos realmente como escalar desde o cálculo da força sináptica até ao mapeamento destes complexos processos”
O estudo Salk aproxima-nos um pouco mais, no entanto. “Eles fizeram uma reconstrução espantosa”, diz Reber. “E acrescenta significativamente à nossa compreensão não só da capacidade de memória mas, mais importante ainda, de quão complexo é realmente o armazenamento de memória”. Os resultados podem eventualmente abrir o caminho para todo o tipo de avanços: computadores mais eficientes em termos energéticos que imitam as estratégias de transmissão de dados do cérebro humano, por exemplo, ou uma melhor compreensão das doenças cerebrais que envolvem sinapses disfuncionais.
Mas os primeiros cientistas terão de ver se os padrões encontrados no hipocampo se mantêm para outras regiões do cérebro. A equipa de Bartol já está a trabalhar para responder a esta pergunta. Eles esperam mapear os produtos químicos, que passam de neurónio para neurónio, que têm uma capacidade ainda maior do que as sinapses variáveis para armazenar e transmitir informação. Quanto a uma medição precisa da capacidade de todo o cérebro, “ainda estamos muito longe”, diz Bartol. “O cérebro ainda guarda muitos, muitos mais mistérios para nós descobrirmos”
“As memórias podem não viver nas sinapses dos neurónios”
“O seu cérebro pode realmente estar ‘cheio’?
“Reconstruir memórias faz com que elas se colem”
“Porque é que a memória é tão boa e tão má?”