La capacité de stockage de la mémoire du cerveau humain est d’un ordre de grandeur supérieur à ce que l’on pensait auparavant, ont rapporté la semaine dernière des chercheurs du Salk Institute for Biological Studies. Ces résultats, récemment détaillés dans eLife, sont significatifs non seulement pour ce qu’ils disent de l’espace de stockage, mais surtout parce qu’ils nous poussent à mieux comprendre comment, exactement, les informations sont codées dans notre cerveau.
La question de savoir quelle quantité d’informations notre cerveau peut contenir est ancienne. Nous savons que le cerveau humain est composé d’environ 100 milliards de neurones, et que chacun d’entre eux établit 1 000 connexions ou plus avec d’autres neurones, soit quelque 100 000 milliards au total. Nous savons également que la force de ces connexions, ou synapses, est régulée par l’expérience. Lorsque deux neurones situés de part et d’autre d’une synapse sont actifs simultanément, cette dernière devient plus robuste ; l’épine dendritique (l’antenne du neurone récepteur) s’agrandit également pour supporter l’intensité accrue du signal. On pense que ces changements de force et de taille sont les corrélats moléculaires de la mémoire. Les différentes tailles d’antennes sont souvent comparées à des bits de code informatique, sauf qu’au lieu d’être des 1 et des 0, elles peuvent prendre toute une gamme de valeurs. Jusqu’à la semaine dernière, les scientifiques n’avaient aucune idée du nombre exact de valeurs. Sur la base de mesures grossières, ils n’en avaient identifié que trois : petite, moyenne et grande.
Mais une curieuse observation a conduit l’équipe de Salk à affiner ces mesures. Au cours de la reconstitution d’un hippocampe de rat, une zone du cerveau des mammifères impliquée dans le stockage de la mémoire, ils ont remarqué que certains neurones formaient deux connexions entre eux : l’axone (ou câble émetteur) d’un neurone se connectait à deux épines dendritiques (ou antennes réceptrices) sur le même neurone voisin, suggérant que des messages en double étaient transmis de l’émetteur au récepteur. Comme les deux dendrites recevaient des informations identiques, les chercheurs pensaient qu’elles seraient de taille et de force similaires. Mais ils ont également réalisé que s’il y avait des différences significatives entre les deux, cela pourrait indiquer une toute nouvelle couche de complexité. Si les épines étaient de forme ou de taille différente, ont-ils raisonné, le message qu’elles transmettaient serait également légèrement différent, même si ce message provenait du même axone.
Ils ont donc décidé de mesurer les paires de synapses. Et bien sûr, ils ont trouvé une différence de taille de 8 % entre les épines dendritiques connectées au même axone d’un neurone de signalisation. Cette différence peut sembler minime, mais lorsqu’ils ont introduit cette valeur dans leurs algorithmes, ils ont calculé un total de 26 tailles de synapses uniques. Un plus grand nombre de tailles de synapses signifie une plus grande capacité de stockage d’informations, ce qui, dans ce cas, s’est traduit par une capacité de stockage 10 fois supérieure dans l’ensemble de l’hippocampe à ce que le modèle précédent à trois tailles avait indiqué. « C’est un ordre de grandeur plus élevé que ce que nous savions être », déclare Tom Bartol, un scientifique de l’Institut Salk et l’auteur principal de l’étude.
Mais si notre capacité de mémoire est si grande, pourquoi oublions-nous des choses ? Parce que la capacité n’est pas vraiment le problème, explique Paul Reber, chercheur sur la mémoire à l’université Northwestern, qui n’a pas participé à l’étude. « Toute analyse du nombre de neurones donne une idée de l’énorme capacité du cerveau humain. Mais cela n’a pas d’importance car notre processus de stockage est plus lent que notre expérience du monde. Imaginez un iPod avec une capacité de stockage infinie. Même si vous pouvez stocker toutes les chansons jamais écrites, vous devez toujours acheter et télécharger toute cette musique, puis extraire les chansons individuelles lorsque vous voulez les écouter. »
Reber affirme qu’il est presque impossible de quantifier la quantité d’informations dans le cerveau humain, en partie parce qu’il est constitué de tellement plus d’informations que nous en sommes conscients : non seulement des faits, des visages et des compétences mesurables, mais aussi des fonctions de base comme la façon de parler et de bouger, et des fonctions d’ordre supérieur comme la façon de ressentir et d’exprimer des émotions. « Nous recevons beaucoup plus d’informations du monde que le simple fait de nous demander ce dont nous nous souvenons d’hier. dit Reber. « Et nous ne savons toujours pas vraiment comment passer de l’échelle du calcul de la force synaptique à la cartographie de ces processus complexes. »
L’étude de Salk nous en rapproche un peu plus, cependant. « Ils ont fait une reconstruction étonnante », dit Reber. « Et cela ajoute considérablement à notre compréhension non seulement de la capacité de mémoire, mais surtout de la complexité réelle du stockage de la mémoire. » Ces résultats pourraient éventuellement ouvrir la voie à toutes sortes de progrès : des ordinateurs plus économes en énergie qui imitent les stratégies de transmission de données du cerveau humain, par exemple, ou une meilleure compréhension des maladies cérébrales qui impliquent des synapses dysfonctionnelles.
Mais les scientifiques devront d’abord voir si les modèles trouvés dans l’hippocampe valent pour d’autres régions du cerveau. L’équipe de Bartol travaille déjà à répondre à cette question. Elle espère cartographier les substances chimiques, qui passent d’un neurone à l’autre, et qui ont une capacité encore plus grande que les synapses variables à stocker et à transmettre des informations. Pour ce qui est de la mesure précise de la capacité de l’ensemble du cerveau, « nous sommes encore loin du compte », déclare M. Bartol. « Le cerveau nous réserve encore beaucoup, beaucoup d’autres mystères à découvrir. »
« Les souvenirs ne vivent peut-être pas dans les synapses des neurones »
« Votre cerveau peut-il vraiment être « plein » ? »
« Reconstruire les souvenirs les fait tenir »
« Pourquoi la mémoire est-elle si bonne et si mauvaise ? »