Die Speicherkapazität des menschlichen Gehirns ist um eine Größenordnung größer als bisher angenommen, berichteten Forscher des Salk Institute for Biological Studies letzte Woche. Die Ergebnisse, die kürzlich in der Fachzeitschrift eLife veröffentlicht wurden, sind nicht nur wegen ihrer Aussage über den Speicherplatz von Bedeutung, sondern vor allem, weil sie uns zu einem besseren Verständnis darüber verhelfen, wie genau Informationen in unserem Gehirn kodiert werden.
Die Frage, wie viele Informationen unser Gehirn speichern kann, stellt sich schon lange. Wir wissen, dass das menschliche Gehirn aus etwa 100 Milliarden Neuronen besteht, und dass jedes Neuron 1.000 oder mehr Verbindungen zu anderen Neuronen herstellt, insgesamt also etwa 100 Billionen. Wir wissen auch, dass die Stärke dieser Verbindungen, oder Synapsen, durch Erfahrung reguliert wird. Wenn zwei Neuronen auf beiden Seiten einer Synapse gleichzeitig aktiv sind, wird diese Synapse robuster; der dendritische Stachel (die Antenne auf dem empfangenden Neuron) wird ebenfalls größer, um die erhöhte Signalstärke zu unterstützen. Es wird angenommen, dass diese Veränderungen in Stärke und Größe die molekularen Korrelate des Gedächtnisses sind. Die unterschiedlichen Antennengrößen werden oft mit Bits eines Computercodes verglichen, nur dass sie anstelle von 1en und 0en einen Wertebereich annehmen können. Bis letzte Woche hatten die Wissenschaftler keine Ahnung, wie viele Werte genau. Basierend auf groben Messungen hatten sie nur drei identifiziert: klein, mittel und groß.
Aber eine kuriose Beobachtung brachte das Salk-Team dazu, diese Messungen zu verfeinern. Bei der Rekonstruktion des Hippocampus einer Ratte, einem Bereich des Säugetiergehirns, der an der Gedächtnisspeicherung beteiligt ist, stellten sie fest, dass einige Neuronen zwei Verbindungen miteinander bildeten: das Axon (oder Sendekabel) eines Neurons verband sich mit zwei dendritischen Dornen (oder Empfangsantennen) desselben benachbarten Neurons, was darauf hindeutet, dass doppelte Nachrichten vom Sender zum Empfänger weitergeleitet wurden. Da beide Dendriten identische Informationen empfingen, vermuteten die Forscher, dass sie in Größe und Stärke ähnlich sein würden. Aber sie erkannten auch, dass, wenn es signifikante Unterschiede zwischen den beiden gab, dies auf eine ganz neue Ebene der Komplexität hinweisen könnte. Wenn die Stacheln eine andere Form oder Größe hätten, so die Überlegung, würde sich auch die weitergegebene Botschaft leicht unterscheiden, selbst wenn sie vom selben Axon käme.
So beschlossen sie, die Synapsenpaare zu messen. Und tatsächlich fanden sie einen Größenunterschied von 8 Prozent zwischen dendritischen Dornen, die mit demselben Axon eines signalgebenden Neurons verbunden waren. Dieser Unterschied mag gering erscheinen, aber als sie den Wert in ihre Algorithmen einfügten, errechneten sie insgesamt 26 einzigartige Synapsengrößen. Eine größere Anzahl von Synapsengrößen bedeutet mehr Kapazität für die Speicherung von Informationen, was in diesem Fall zu einer 10-fach größeren Speicherkapazität im Hippocampus als Ganzes führte, als das vorherige Modell mit drei Größen angezeigt hatte. „Das ist eine Größenordnung mehr, als wir bisher wussten“, sagt Tom Bartol, wissenschaftlicher Mitarbeiter am Salk Institute und Hauptautor der Studie.
Aber wenn unsere Gedächtniskapazität so groß ist, warum vergessen wir dann Dinge? Weil die Kapazität nicht wirklich das Problem ist, sagt Paul Reber, ein Gedächtnisforscher an der Northwestern University, der nicht an der Studie beteiligt war: „Jede Analyse der Anzahl der Neuronen führt zu einem Gefühl für die enorme Kapazität des menschlichen Gehirns. Aber das spielt keine Rolle, weil unser Speicherprozess langsamer ist als unsere Erfahrung der Welt. Stellen Sie sich einen iPod mit unendlicher Speicherkapazität vor. Selbst wenn Sie jedes Lied, das jemals geschrieben wurde, speichern können, müssen Sie immer noch all diese Musik kaufen und hochladen und dann einzelne Lieder abrufen, wenn Sie sie abspielen wollen.“
Reber sagt, dass es fast unmöglich ist, die Informationsmenge im menschlichen Gehirn zu quantifizieren, zum Teil, weil es aus so viel mehr Informationen besteht, als wir bewusst wahrnehmen: nicht nur Fakten und Gesichter und messbare Fähigkeiten, sondern grundlegende Funktionen wie das Sprechen und Bewegen und solche höherer Ordnung wie das Fühlen und Ausdrücken von Gefühlen. „Wir nehmen viel mehr Informationen aus der Welt auf als ‚Was weiß ich noch von gestern?'“ sagt Reber. „Und wir wissen immer noch nicht wirklich, wie wir von der Berechnung der synaptischen Stärke zur Abbildung dieser komplexen Prozesse übergehen können.“
Die Salk-Studie bringt uns allerdings ein Stück näher. „Sie haben eine erstaunliche Rekonstruktion gemacht“, sagt Reber. „Und sie trägt wesentlich zu unserem Verständnis nicht nur der Speicherkapazität bei, sondern, was noch wichtiger ist, wie komplex die Gedächtnisspeicherung tatsächlich ist.“ Die Ergebnisse könnten schließlich den Weg zu allen möglichen Fortschritten ebnen: energieeffizientere Computer, die die Datenübertragungsstrategien des menschlichen Gehirns nachahmen, zum Beispiel, oder ein besseres Verständnis von Gehirnerkrankungen, die mit dysfunktionalen Synapsen einhergehen.
Aber zunächst müssen die Wissenschaftler sehen, ob die im Hippocampus gefundenen Muster auch für andere Hirnregionen gelten. An der Beantwortung dieser Frage arbeitet das Team um Bartol bereits. Sie hoffen, die Chemikalien zu kartieren, die von Neuron zu Neuron weitergegeben werden und die eine noch größere Kapazität als die variablen Synapsen haben, Informationen zu speichern und zu übertragen. Bis zu einer genauen Messung der Kapazität des gesamten Gehirns „ist es noch ein weiter Weg“, sagt Bartol. „Das Gehirn birgt noch viele, viele weitere Geheimnisse für uns.“
„Erinnerungen leben vielleicht nicht in den Synapsen der Neuronen“
„Kann Ihr Gehirn wirklich ‚voll‘ sein?
„Erinnerungen wieder aufzubauen macht sie fest“
„Warum ist das Gedächtnis so gut und so schlecht?“