La capacità di memorizzazione del cervello umano è un ordine di grandezza maggiore di quanto si pensasse in precedenza, hanno riportato la scorsa settimana i ricercatori del Salk Institute for Biological Studies. I risultati, recentemente dettagliati in eLife, sono significativi non solo per quello che dicono sullo spazio di archiviazione, ma soprattutto perché ci spingono verso una migliore comprensione di come, esattamente, le informazioni sono codificate nei nostri cervelli.
La questione di quante informazioni il nostro cervello può contenere è di vecchia data. Sappiamo che il cervello umano è composto da circa 100 miliardi di neuroni, e che ognuno di essi crea 1.000 o più connessioni con altri neuroni, per un totale di circa 100 trilioni. Sappiamo anche che la forza di queste connessioni, o sinapsi, è regolata dall’esperienza. Quando due neuroni su entrambi i lati di una sinapsi sono attivi simultaneamente, quella sinapsi diventa più robusta; la spina dendritica (l’antenna sul neurone ricevente) diventa anche più grande per sostenere la maggiore forza del segnale. Si ritiene che questi cambiamenti nella forza e nella dimensione siano i correlati molecolari della memoria. Le diverse dimensioni delle antenne sono spesso paragonate ai bit del codice del computer, solo che invece di 1 e 0 possono assumere una gamma di valori. Fino alla settimana scorsa gli scienziati non avevano idea di quanti valori, esattamente. Basandosi su misurazioni grossolane, ne avevano identificati solo tre: piccolo, medio e grande.
Ma una curiosa osservazione ha portato il team Salk a perfezionare quelle misurazioni. Nel corso della ricostruzione di un ippocampo di ratto, un’area del cervello dei mammiferi coinvolta nell’immagazzinamento della memoria, hanno notato che alcuni neuroni avrebbero formato due connessioni tra loro: l’assone (o cavo di invio) di un neurone si sarebbe collegato con due spine dendritiche (o antenne di ricezione) sullo stesso neurone vicino, suggerendo che i messaggi duplicati venivano passati dal mittente al ricevitore. Poiché entrambi i dendriti stavano ricevendo informazioni identiche, i ricercatori sospettavano che sarebbero stati simili per dimensioni e forza. Ma si sono anche resi conto che se ci fossero state differenze significative tra i due, questo avrebbe potuto indicare un intero nuovo livello di complessità. Se le spine avevano una forma o una dimensione diversa, hanno ragionato, anche il messaggio che passavano sarebbe stato leggermente diverso, anche se quel messaggio proveniva dallo stesso assone.
Così hanno deciso di misurare le coppie di sinapsi. E abbastanza sicuro, hanno trovato una differenza di dimensioni dell’8% tra le spine dendritiche collegate allo stesso assone di un neurone di segnalazione. Questa differenza potrebbe sembrare piccola, ma quando hanno inserito il valore nei loro algoritmi, hanno calcolato un totale di 26 dimensioni uniche di sinapsi. Un maggior numero di dimensioni di sinapsi significa una maggiore capacità di memorizzare informazioni, che in questo caso si è tradotto in una capacità di memorizzazione 10 volte maggiore nell’ippocampo nel suo complesso rispetto al precedente modello a tre dimensioni aveva indicato. “È un ordine di grandezza in più rispetto a quello che sapevamo”, dice Tom Bartol, uno scienziato del Salk Institute e autore principale dello studio.
Ma se la nostra capacità di memoria è così grande, perché dimentichiamo le cose? Perché la capacità non è davvero il problema, dice Paul Reber, un ricercatore di memoria alla Northwestern University che non è stato coinvolto nello studio, “Qualsiasi analisi del numero di neuroni porterà a un senso della tremenda capacità del cervello umano. Ma non importa, perché il nostro processo di memorizzazione è più lento della nostra esperienza del mondo. Immaginate un iPod con una capacità di memorizzazione infinita. Anche se puoi memorizzare ogni canzone mai scritta, devi comunque comprare e caricare tutta quella musica e poi estrarre le singole canzoni quando vuoi riprodurle.”
Reber dice che è quasi impossibile quantificare la quantità di informazioni nel cervello umano, in parte perché consiste di così tante informazioni di cui siamo consapevoli: non solo fatti e volti e abilità misurabili ma funzioni di base come parlare e muoversi e quelle di ordine superiore come sentire ed esprimere emozioni. “Riceviamo molte più informazioni dal mondo che non il “cosa mi ricordo di ieri?”. dice Reber. “E non sappiamo ancora come passare dal calcolo della forza sinaptica alla mappatura di questi processi complessi.”
Lo studio Salk ci porta un po’ più vicino, però. “Hanno fatto una ricostruzione incredibile”, dice Reber. “E aggiunge significativamente alla nostra comprensione non solo della capacità di memoria, ma soprattutto di quanto sia complessa la memorizzazione della memoria”. Le scoperte potrebbero alla fine aprire la strada verso ogni sorta di progresso: computer più efficienti dal punto di vista energetico che imitano le strategie di trasmissione dati del cervello umano, per esempio, o una migliore comprensione delle malattie del cervello che coinvolgono sinapsi disfunzionali.
Ma prima gli scienziati dovranno vedere se i modelli trovati nell’ippocampo valgono per altre regioni del cervello. Il team di Bartol sta già lavorando per rispondere a questa domanda. Sperano di mappare le sostanze chimiche, che passano da neurone a neurone, che hanno una capacità ancora maggiore delle sinapsi variabili di immagazzinare e trasmettere informazioni. Per quanto riguarda una misura precisa della capacità dell’intero cervello, “siamo ancora lontani”, dice Bartol. “
“I ricordi possono non vivere nelle sinapsi dei neuroni”
“Il tuo cervello può essere davvero “pieno”?
“Ricostruire i ricordi li fa rimanere”
“Perché la memoria è così buona e così cattiva?