Informations

Capacité de mémoire du cerveau humain en octets ?

Capacité de mémoire du cerveau humain en octets ?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Existe-t-il une estimation de la quantité de mémoire (en octets) qu'un cerveau humain moyen peut avoir ? Y a-t-il une limite physique ?


Une étude « Bombshell » montre que notre cerveau est encore plus impressionnant que nous ne le pensions

Dans une découverte qu'ils qualifient de "véritable bombe dans le domaine des neurosciences", les chercheurs ont découvert des preuves que la capacité de mémoire du cerveau humain est d'un ordre de grandeur supérieur à ce que l'on pensait auparavant.

"Nos nouvelles mesures de la capacité de mémoire du cerveau augmentent les estimations prudentes d'un facteur 10 à au moins un pétaoctet", Dr Terry Sejnowski, professeur au Salk Institute de La Jolla, en Californie, et co-auteur principal d'un article décrivant la recherche, a déclaré dans une déclaration écrite.

En d'autres termes, le cerveau humain peut être capable de stocker un pétaoctet de données, soit 1 quadrillion d'octets. C'est assez de mémoire pour stocker 13,3 ans de vidéo haute définition.

La découverte, publiée récemment dans la revue eLife, est considérée comme préliminaire et doit être confirmée par de futures recherches. Mais cela constitue une avancée significative dans notre compréhension de la neuroanatomie et pourrait s'avérer être un pas vers la création d'un "schéma de câblage" complet du cerveau humain, a déclaré Sejnowsky au Huffington Post.

De plus, cette découverte pourrait ouvrir la voie à une nouvelle génération d'ordinateurs qui combinent une puissance de traitement énorme avec une faible consommation d'énergie. De tels dispositifs informatiques "probabilistes" - ainsi appelés parce qu'ils traitent les données d'une manière plus intuitive que les ordinateurs conventionnels - sont considérés comme un changement pour des applications allant de la traduction à la vision artificielle.

Sejnowski et ses collaborateurs de Salk et de l'Université du Texas à Austin ont fait la découverte dans le cadre d'un examen anatomique détaillé et d'une reconstruction informatique 3D ultérieure des cellules dans une infime partie de tissu provenant du cerveau d'un rat.

La reconstruction a montré que la variation de la taille des synapses au sein de l'échantillon - les minuscules écarts entre les cellules cérébrales connues pour être la clé de la formation et du stockage de la mémoire - était beaucoup plus petite que ce que les recherches précédentes avaient suggéré. En fait, les synapses variaient en taille d'environ 8 pour cent seulement. (On pense que les synapses dans le cerveau du rat sont similaires à celles du cerveau humain.)

"Personne ne pensait que ce serait une si petite différence", a déclaré le Dr Tom Bartol, scientifique de l'institut et l'un des chercheurs, dans le communiqué. "C'était une boule de courbe de la nature."

Lorsque les chercheurs ont inséré le chiffre de 8 % dans leur modèle informatique du cerveau, ils ont déterminé qu'il devait y avoir plus de deux douzaines de tailles discrètes de synapse plutôt que quelques-unes. Ce plus grand nombre, à son tour, signifiait que les synapses devaient être capables de stocker beaucoup plus d'informations que quiconque ne le savait.

Avoir plus de "bits" par synapse, c'est un peu comme un téléviseur haute définition ayant plus de bits par pixel qu'un téléviseur conventionnel, a déclaré Sejnowski, ajoutant que "nous pensons que le cerveau est maintenant à haute résolution".

Ou, offrant une autre métaphore, il a dit : "Nous devons penser au cerveau non pas comme une vieille horloge de grand-père mais comme une montre de haute précision."

Certains scientifiques pensent que le cerveau humain est capable de stocker encore plus d'informations. La véritable capacité de mémoire du cerveau peut être encore plus grande - jusqu'à 3 à 5 pétaoctets, a déclaré le Dr Paul Reber, directeur du programme Brain, Behaviour, & Cognition au département de psychologie de la Northwestern University, à l'Union-Tribune de San Diego.


La mémoire du cerveau humain pourrait stocker tout Internet

Le cerveau humain peut être capable de conserver autant d'informations dans sa mémoire que sur l'ensemble de l'Internet, suggèrent de nouvelles recherches.

Les chercheurs ont découvert que, contrairement à un ordinateur classique qui code les informations sous forme de 0 et de 1, une cellule cérébrale utilise 26 façons différentes de coder ses « bits ». Ils ont calculé que le cerveau pouvait stocker 1 pétaoctet (ou un quadrillion d'octets) d'informations.

"C'est une véritable bombe dans le domaine des neurosciences", a déclaré Terry Sejnowski, biologiste au Salk Institute de La Jolla, en Californie, dans un communiqué. "Nos nouvelles mesures de la capacité de mémoire du cerveau augmentent les estimations prudentes d'un facteur 10."

Ordinateur incroyable

De plus, le cerveau humain peut stocker cette quantité ahurissante d'informations tout en sirotant juste assez d'énergie pour faire fonctionner une ampoule faible. [Top 10 des mystères de l'esprit]

En revanche, un ordinateur avec la même mémoire et la même puissance de traitement nécessiterait 1 gigawatt de puissance, ou "essentiellement toute une centrale nucléaire pour faire fonctionner un ordinateur qui fait ce que notre" ordinateur "fait avec 20 watts", a déclaré le co-auteur de l'étude, Tom. Bartol, neuroscientifique à l'Institut Salk.

L'équipe a notamment souhaité s'intéresser de plus près à l'hippocampe, une région du cerveau qui joue un rôle clé dans l'apprentissage et la mémoire à court terme.

Pour démêler les mystères de l'esprit, l'équipe de recherche a pris une minuscule tranche d'hippocampe de rat, l'a placée dans un liquide d'embaumement, puis l'a tranchée finement avec un couteau en diamant extrêmement tranchant, un processus qui s'apparente à "trancher une orange", a déclaré Bartol. (Bien que le cerveau d'un rat ne soit pas identique à un cerveau humain, les caractéristiques anatomiques de base et la fonction des synapses sont très similaires chez tous les mammifères.) L'équipe a ensuite intégré le tissu mince dans du plastique, l'a examiné au microscope et créé des images numériques.

Ensuite, les chercheurs ont passé un an à tracer, avec un stylo et du papier, chaque type de cellule qu'ils ont vu. Après tous ces efforts, l'équipe avait retracé toutes les cellules de l'échantillon, un volume incroyablement petit de tissu. [Galerie d'images : le cerveau d'Einstein]

"Vous pourriez adapter 20 de ces échantillons sur la largeur d'un seul cheveu humain", a déclaré Bartol à Live Science.

Répartition des tailles

Ensuite, l'équipe a compté tous les neurones complets, ou cellules cérébrales, dans le tissu, qui totalisaient 450. De ce nombre, 287 avaient les structures complètes qui intéressaient les chercheurs.

Les neurones ressemblent un peu à des ballons gonflés et difformes, avec de longues vrilles appelées axones et des dendrites qui sortent du corps cellulaire. Les axones agissent comme le fil de sortie des cellules cérébrales, envoyant une rafale de molécules appelées neurotransmetteurs, tandis que de minuscules épines sur les dendrites reçoivent les messages chimiques envoyés par l'axone à travers un espace étroit, appelé la synapse. (L'endroit spécifique sur la dendrite auquel ces messages chimiques sont transmis à travers la synapse est appelé la colonne vertébrale dendritique.) La cellule cérébrale réceptrice peut alors déclencher son propre cache de neurotransmetteurs pour relayer ce message à d'autres neurones, bien que le plus souvent, il ne fait rien en réponse.

Des travaux antérieurs avaient montré que les plus grosses synapses éclipsaient les plus petites d'un facteur 60. Cette différence de taille reflète la force de la connexion sous-jacente, tandis que le neurone moyen relaie les signaux entrants environ 20% du temps, ce pourcentage peut augmenter avec le temps. Plus un circuit cérébral est entraîné (c'est-à-dire plus un réseau de neurones est activé), plus il y a de chances qu'un neurone de ce circuit se déclenche lorsqu'un autre lui envoie un signal. Le processus de renforcement de ces réseaux neuronaux semble élargir le point de contact physique au niveau des synapses, augmentant ainsi la quantité de neurotransmetteurs qu'ils peuvent libérer, a déclaré Bartol.

Si les neurones bavardent essentiellement entre eux à travers une synapse, alors une cellule cérébrale communiquant à travers une plus grande synapse a une voix plus forte qu'une autre communiquant à travers une plus petite synapse, a déclaré Bartol.

Mais les scientifiques n'ont pas compris grand-chose sur le nombre de tailles de neurones et sur leur évolution en réponse aux signaux.

Puis Bartol, Sejnowski et leurs collègues ont remarqué quelque chose de drôle dans leur tranche d'hippocampe. Environ 10 pour cent du temps, un seul axone serpentait et se connectait à la même dendrite au niveau de deux épines dendritiques différentes. Ces axones bizarres envoyaient exactement la même entrée à chacun des points de la dendrite, mais la taille des synapses, où les axones « parlent » aux dendrites, variait en moyenne de 8 %. Cela signifiait que la variance naturelle dans la mesure dans laquelle un message entre les deux modifiait la synapse sous-jacente était de 8 %.

L'équipe a alors demandé : si la taille des synapses peut différer d'un facteur 60 et que la taille d'une synapse varie d'environ 8 % en raison du pur hasard, combien de types différents de tailles synaptiques pourraient correspondre à cette plage de tailles et être détectés aussi différent par le cerveau ?

En combinant ces données avec la théorie de la détection du signal, qui dicte à quel point deux signaux doivent être différents avant que le cerveau puisse détecter une différence entre eux, les chercheurs ont découvert que les neurones pouvaient se présenter dans 26 gammes de tailles différentes. Ceci, en substance, a révélé combien de volumes différents de "voix" les neurones utilisent pour bavarder les uns avec les autres. Auparavant, les chercheurs pensaient que ces cellules cérébrales étaient de quelques tailles seulement.

À partir de là, ils pouvaient calculer exactement la quantité d'informations pouvant être transmise entre deux neurones. Les ordinateurs stockent les données sous forme de bits, qui peuvent avoir deux valeurs potentielles : 0 ou 1. Mais ce message binaire d'un neurone (à déclencher ou non) peut produire 26 tailles différentes de neurones. Ils ont donc utilisé la théorie de l'information de base pour calculer le nombre de bits de données que chaque neurone peut contenir.

"Pour convertir le nombre 26 en unités de bits, nous disons simplement que 2 élevé à la puissance n est égal à 26 et résolvons pour n. Dans ce cas, n est égal à 4,7 bits", a déclaré Bartol.

Cette capacité de stockage représente environ 10 fois ce que l'on croyait auparavant, ont rapporté les chercheurs en ligne dans la revue eLife.

Incroyablement efficace

Les nouvelles découvertes mettent également en lumière la façon dont le cerveau stocke les informations tout en restant assez actif. Le fait que la plupart des neurones ne se déclenchent pas en réponse aux signaux entrants, mais que le corps est très précis dans la traduction de ces signaux dans les structures physiques, explique en partie pourquoi le cerveau est plus efficace qu'un ordinateur : la plupart de ses poids lourds ne le sont pas. faire n'importe quoi la plupart du temps.

Cependant, même si la cellule cérébrale moyenne est inactive 80 % du temps, cela n'explique toujours pas pourquoi un ordinateur nécessite 50 millions de fois plus d'énergie pour effectuer les mêmes tâches qu'un cerveau humain.

"L'autre partie de l'histoire pourrait avoir à voir avec le fonctionnement de la biochimie par rapport au fonctionnement des électrons dans un ordinateur. Les ordinateurs utilisent des électrons pour effectuer les calculs et les électrons circulant dans un fil produisent beaucoup de chaleur, et cette chaleur est de l'énergie gaspillée. ", a déclaré Bartol. Les voies biochimiques peuvent simplement être beaucoup plus efficaces, a-t-il ajouté.


Combien notre cerveau peut-il stocker ? Go..TB… ou plus ?

Selon Paul Reber, professeur de psychologie à la Northwestern University, le cerveau humain se compose d'environ un milliard de neurones. Chaque neurone forme environ 1 000 connexions avec d'autres neurones, ce qui représente plus d'un billion de connexions. Si chaque neurone ne pouvait aider à stocker qu'une seule mémoire, le manque d'espace serait un problème. Vous n'avez peut-être que quelques gigaoctets d'espace de stockage, semblable à l'espace d'un iPod ou d'une clé USB. Pourtant, les neurones se combinent de sorte que chacun aide avec de nombreux souvenirs à la fois, augmentant de manière exponentielle la capacité de stockage de la mémoire du cerveau à quelque chose de plus proche d'environ 2,5 pétaoctets (ou un million de gigaoctets). À titre de comparaison, si votre cerveau fonctionnait comme un magnétoscope numérique dans un téléviseur, 2,5 pétaoctets suffiraient pour contenir trois millions d'heures d'émissions télévisées. Vous devrez laisser le téléviseur fonctionner en continu pendant plus de 300 ans pour utiliser tout ce stockage.

Hollywood de Steven Wiltshire

Le cerveau humain a toujours été l'un des mystères les plus intrigants sur terre. Rencontrez Steven Wiltshire, également connu sous le nom de caméra humaine. À 11 ans, il a dessiné une vue aérienne parfaite de Londres après un tour en hélicoptère.

Regarde ça caméra vivante en action dans cette vidéo étonnante, où il dessine de mémoire une vue panoramique de la ville de Rome après une seule heure de vol en hélicoptère. Des miracles tels que Steven ont reçu plusieurs noms à travers l'histoire. Mais ce n'est qu'aujourd'hui que les scientifiques commencent à pouvoir observer le cerveau pendant qu'il pense, à percer les mystères qu'il recèle.


La capacité de mémoire du cerveau est 10 fois supérieure à ce que l'on pensait auparavant

Les chercheurs et collaborateurs de Salk ont ​​obtenu un aperçu critique de la taille des connexions neuronales, plaçant la capacité de mémoire du cerveau bien au-dessus des estimations courantes. Le nouveau travail répond également à une question de longue date sur la façon dont le cerveau est si économe en énergie et pourrait aider les ingénieurs à construire des ordinateurs incroyablement puissants mais aussi à conserver l'énergie.

"C'est une véritable bombe dans le domaine des neurosciences", déclare Terry Sejnowski, professeur à Salk et co-auteur principal de l'article, qui a été publié dans eLife. « Nous avons découvert la clé pour déverrouiller le principe de conception du fonctionnement des neurones de l'hippocampe avec une faible énergie mais une puissance de calcul élevée. Nos nouvelles mesures de la capacité de mémoire du cerveau augmentent les estimations prudentes d'un facteur 10 à au moins un pétaoctet, dans le même stade que le World Wide Web."

Nos souvenirs et nos pensées sont le résultat de modèles d'activité électrique et chimique dans le cerveau. Une partie clé de l'activité se produit lorsque des branches de neurones, tout comme un fil électrique, interagissent à certaines jonctions, appelées synapses. Un « fil » de sortie (un axone) d'un neurone se connecte à un « fil » d'entrée (une dendrite) d'un deuxième neurone. Les signaux voyagent à travers la synapse sous forme de produits chimiques appelés neurotransmetteurs pour indiquer au neurone récepteur s'il doit transmettre un signal électrique à d'autres neurones. Chaque neurone peut avoir des milliers de ces synapses avec des milliers d'autres neurones.

"Lorsque nous avons reconstruit pour la première fois chaque dendrite, axone, processus glial et synapse à partir d'un volume d'hippocampe de la taille d'un seul globule rouge, nous étions quelque peu déconcertés par la complexité et la diversité des synapses", explique Kristen Harris, co-senior auteur de l'ouvrage et professeur de neurosciences à l'Université du Texas, Austin. "Alors que j'avais espéré apprendre des principes fondamentaux sur la façon dont le cerveau est organisé à partir de ces reconstructions détaillées, j'ai été vraiment étonné de la précision obtenue dans les analyses de ce rapport."

Les synapses sont encore un mystère, bien que leur dysfonctionnement puisse provoquer toute une gamme de maladies neurologiques. Les synapses plus grandes - avec plus de surface et de vésicules de neurotransmetteurs - sont plus fortes, ce qui les rend plus susceptibles d'activer les neurones environnants que les synapses moyennes ou petites.

L'équipe de Salk, tout en construisant une reconstruction 3D du tissu d'hippocampe de rat (le centre de mémoire du cerveau), a remarqué quelque chose d'inhabituel. Dans certains cas, un seul axone d'un neurone a formé deux synapses atteignant une seule dendrite d'un deuxième neurone, ce qui signifie que le premier neurone semblait envoyer un message en double au neurone récepteur.

Au début, les chercheurs ne pensaient pas beaucoup à cette duplicité, qui se produit environ 10 % du temps dans l'hippocampe. Mais Tom Bartol, un scientifique du personnel de Salk, a eu une idée : s'ils pouvaient mesurer la différence entre deux synapses très similaires comme celles-ci, ils pourraient glaner un aperçu des tailles synaptiques, qui jusqu'à présent n'avaient été classées sur le terrain que comme petites, moyennes et grand.

Pour ce faire, les chercheurs ont utilisé des algorithmes de microscopie et de calcul avancés qu'ils avaient développés pour imager des cerveaux de rats et reconstruire la connectivité, les formes, les volumes et la surface du tissu cérébral jusqu'à un niveau nanomoléculaire.

Les scientifiques s'attendaient à ce que les synapses soient à peu près de taille similaire, mais ont été surpris de découvrir que les synapses étaient presque identiques.

"Nous avons été étonnés de constater que la différence de taille des paires de synapses était très petite, en moyenne, seulement environ huit pour cent de taille différente. Personne ne pensait que ce serait une si petite différence. C'était une boule de courbe de la nature, " dit Bartol.

Étant donné que la capacité de mémoire des neurones dépend de la taille de la synapse, cette différence de huit pour cent s'est avérée être un nombre clé que l'équipe a ensuite pu intégrer à ses modèles algorithmiques du cerveau pour mesurer la quantité d'informations pouvant potentiellement être stockée dans les connexions synaptiques.

On savait auparavant que la gamme de tailles entre les synapses les plus petites et les plus grandes était d'un facteur 60 et que la plupart sont petites.

Mais sachant que les synapses de toutes tailles pouvaient varier par incréments aussi faibles que huit pour cent entre les tailles dans un facteur de 60, l'équipe a déterminé qu'il pourrait y avoir environ 26 catégories de tailles de synapses, plutôt que quelques-unes.

"Nos données suggèrent qu'il y a 10 fois plus de tailles discrètes de synapses qu'on ne le pensait auparavant", explique Bartol. En termes informatiques, 26 tailles de synapses correspondent à environ 4,7 "bits" d'information. Auparavant, on pensait que le cerveau n'était capable que d'un à deux bits pour le stockage de mémoire courte et longue dans l'hippocampe.

"C'est à peu près un ordre de grandeur de précision plus que quiconque ne l'a jamais imaginé", explique Sejnowski.

Ce qui rend cette précision déroutante, c'est que les synapses hippocampiques sont notoirement peu fiables. Lorsqu'un signal passe d'un neurone à un autre, il n'active généralement ce deuxième neurone que 10 à 20 % du temps.

"Nous nous étions souvent demandé comment la précision remarquable du cerveau pouvait résulter de synapses aussi peu fiables", explique Bartol. Une réponse, semble-t-il, réside dans l'ajustement constant des synapses, en faisant la moyenne de leurs taux de réussite et d'échec au fil du temps. L'équipe a utilisé ses nouvelles données et un modèle statistique pour déterminer le nombre de signaux qu'il faudrait à une paire de synapses pour atteindre cette différence de huit pour cent.

Les chercheurs ont calculé que pour les plus petites synapses, environ 1 500 événements provoquent un changement dans leur taille/capacité (20 minutes) et pour les plus grandes synapses, seuls quelques centaines d'événements de signalisation (1 à 2 minutes) provoquent un changement.

"Cela signifie que toutes les 2 ou 20 minutes, vos synapses montent ou descendent à la taille suivante. Les synapses s'ajustent en fonction des signaux qu'elles reçoivent", explique Bartol.

"Nos travaux antérieurs avaient laissé entrevoir la possibilité que les épines et les axones qui se synapsent seraient de taille similaire, mais la réalité de la précision est vraiment remarquable et jette les bases de toutes nouvelles façons de penser au cerveau et aux ordinateurs", explique Harris. « Les travaux issus de cette collaboration ont ouvert un nouveau chapitre dans la recherche de mécanismes d'apprentissage et de mémoire. Harris ajoute que les résultats suggèrent plus de questions à explorer, par exemple, si des règles similaires s'appliquent aux synapses dans d'autres régions du cerveau et comment ces règles diffèrent au cours du développement et à mesure que les synapses changent au cours des premières étapes de l'apprentissage.

"Les implications de ce que nous avons trouvé sont de grande envergure", ajoute Sejnowski. "Cachée sous le chaos et le désordre apparents du cerveau se cache une précision sous-jacente à la taille et à la forme des synapses qui nous était cachée."

Les résultats offrent également une explication précieuse pour l'efficacité surprenante du cerveau. Le cerveau adulte éveillé ne génère qu'environ 20 watts de puissance continue, autant qu'une ampoule très faible. La découverte de Salk pourrait aider les informaticiens à construire des ordinateurs ultra-précis, mais économes en énergie, en particulier ceux qui utilisent "l'apprentissage en profondeur" et les réseaux neuronaux artificiels - des techniques capables d'apprentissage et d'analyse sophistiqués, telles que la parole, la reconnaissance d'objets et la traduction.

"Cette astuce du cerveau indique absolument un moyen de concevoir de meilleurs ordinateurs", explique Sejnowski. "L'utilisation de la transmission probabiliste s'avère aussi précise et nécessite beaucoup moins d'énergie pour les ordinateurs et les cerveaux."


LA MÉMOIRE HUMAINE

Depuis des temps immémoriaux, les humains ont essayé de comprendre ce qu'est la mémoire, comment elle fonctionne et pourquoi elle tourne mal. C'est une partie importante de ce qui nous rend vraiment humains, et pourtant c'est l'un des attributs humains les plus insaisissables et les plus mal compris.

L'image populaire de la mémoire est comme une sorte de minuscule classeur plein de dossiers de mémoire individuels dans lesquels les informations sont stockées, ou peut-être comme un super-ordinateur de capacité et vitesse énormes. Cependant, à la lumière des connaissances biologiques et psychologiques modernes, ces métaphores peuvent ne pas être entièrement utiles et, aujourd'hui, les experts pensent que la mémoire est en fait beaucoup plus complexe et subtil que ça

Il semble que notre mémoire ne soit pas localisée à un endroit particulier du cerveau, mais qu'elle soit plutôt un processus à l'échelle du cerveau dans lequel plusieurs zones différentes du cerveau agissent en conjonction les unes avec les autres (parfois appelées Traitement distribué). Par exemple, le simple fait de faire du vélo est reconstruit de manière active et transparente par le cerveau à partir de nombreux différentes régions: la mémoire de la façon de conduire le vélo vient d'une zone, la mémoire de la façon d'aller d'ici à la fin du bloc vient d'une autre, la mémoire des règles de sécurité à vélo d'une autre, et ce sentiment nerveux quand une voiture vire dangereusement proche vient d'encore un autre. Chaque élément d'un souvenir (images, sons, mots, émotions) est codé dans la même partie du cerveau qui a créé à l'origine ce fragment (cortex visuel, cortex moteur, aire du langage, etc.), et le rappel d'un souvenir réactive efficacement le système neuronal. motifs générés lors de l'encodage d'origine. Ainsi, une meilleure image pourrait être celle d'un site web complexe, dans laquelle les fils symbolisent les divers éléments d'une mémoire, qui se rejoignent à nœuds ou des points d'intersection pour former une mémoire complète et arrondie d'une personne, d'un objet ou d'un événement. Ce genre de mémoire distribuée garantit que même si une partie du cerveau est endommagée, certaines parties d'une expérience peuvent encore subsister. Neurologues commencent seulement à comprendre comment les pièces sont réassemblées en un tout cohérent.

Le cerveau humain, l'une des structures vivantes les plus complexes de l'univers, est le siège de la mémoire

La mémoire n'est pas non plus un processus unitaire unique, mais il existe différents types de mémoire. Nos mémoires à court terme et à long terme sont codées et stockées de différentes manières et dans différentes parties du cerveau, pour des raisons que nous commençons seulement à deviner. Années de études de cas des patients souffrant d'accidents et de maladies liées au cerveau et d'autres troubles (en particulier chez les personnes âgées) ont commencé à indiquer certaines des complexités des processus de mémoire, et de grands progrès ont été réalisés dans neurosciences et psychologie cognitive, mais bon nombre des mécanismes exacts impliqués restent insaisissables.

Ce site Web, écrit par un profane pour le profane, tente de reconstituer une partie de ce que nous FAIRE connaître l'énigme qui est…La mémoire humaine.L'hypertension affecte le système cardiovasculaire ainsi que le flux sanguin vers le cerveau. Cela peut provoquer de nombreux symptômes, notamment une perte de mémoire.


Capacité de mémoire du cerveau humain en octets ? - La biologie

Contrairement aux appareils photo numériques dotés de cartes mémoire pleines qui ne peuvent plus prendre de photos, notre cerveau ne semble jamais manquer de place. Pourtant, il défie la logique qu'un cerveau humain adulte – une « éponge imbibée de sang », selon les mots de l'écrivain Kurt Vonnegut – soit capable d'enregistrer de nouveaux faits et expériences à l'infini.

Les neuroscientifiques ont longtemps essayé de mesurer notre volume mental maximal. Cependant, ce qui brouille tout calcul simple de la capacité de mémoire, ce sont les prouesses cognitives étonnantes réalisées par des individus dévoués et des personnes au cerveau atypique.

Beaucoup d'entre nous ont du mal à mémoriser un numéro de téléphone. Que diriez-vous de 67 980 chiffres ? C'est le nombre de chiffres de pi que Chao Lu de Chine, un étudiant diplômé de 24 ans à l'époque, a récité en 2005. Chao a prononcé la chaîne de chiffres pendant une période de 24 heures sans même une pause dans la salle de bain, brisant le record du monde.

Savants a sans doute réalisé des performances encore plus étonnantes, capables de prouesses de rappel étonnantes, des noms et des dates aux détails de scènes visuelles complexes. Et dans de rares cas, les blessures subies par des personnes auparavant en bonne santé ont apparemment déclenché un « syndrome du savant acquis ». Quand Orlando Serrell avait 10 ans, par exemple, il a été frappé par une balle de baseball dans le côté gauche de la tête. Il découvrit soudain qu'il pouvait se rappeler d'innombrables plaques d'immatriculation et calculer des éléments de calendrier complexes, tels que le jour de la semaine tombant une date d'il y a des décennies.

Comment se fait-il que les nouilles de ces gens fassent honte à la mémoire du cerveau moyen ? Et que disent les capacités des récitateurs pi et des savants de la véritable capacité du cerveau humain ?

Octets du cerveau

À un niveau quantifiable, notre capacité de mémoire doit avoir une base dans la physiologie du cerveau. Une métrique grossière, mais peut-être utile à cet égard : les quelque 100 milliards de neurones qui composent notre cerveau. Seulement environ un milliard, cependant, jouent un rôle dans le stockage de la mémoire à long terme – on les appelle des cellules pyramidales.

Si vous deviez supposer qu'un neurone ne peut contenir qu'une seule "unité" de mémoire, alors notre cerveau se remplirait à ras bord. "Si vous pouviez avoir autant de souvenirs que de neurones, ce n'est pas un très grand nombre", déclare Paul Reber, professeur de psychologie à l'Université Northwestern. "Vous manqueriez d'espace dans votre cerveau assez rapidement."

Serait-il possible de débloquer des talents de mémoire cachés ? (Crédit : Getty Images)

Au lieu de cela, les chercheurs pensent que les souvenirs se forment dans les connexions entre les neurones et à travers les réseaux de neurones. Chaque neurone fait germer des extensions comme des lignes de train à partir d'un centre de banlieue, en boucle dans environ un millier d'autres neurones de cellules nerveuses. Cette architecture, pense-t-on, rend les éléments de mémoire disponibles sur l'ensemble de la toile enchevêtrée. En tant que tel, le concept d'un ciel bleu, disons, peut apparaître dans d'innombrables souvenirs théoriquement discrets de scènes extérieures.

Reber appelle cet effet « stockage exponentiel » et, avec lui, la capacité de mémoire du cerveau « passe à travers le toit ».

"Sous toute hypothèse raisonnable, il atteint plusieurs pétaoctets", explique Reber. Un pétaoctet équivaut à 2 000 ans de fichiers de chansons MP3. Nous ne savons pas encore exactement de combien de connexions une seule mémoire a besoin, bien sûr - ou même si son stockage peut être comparé à un ordinateur numérique du tout - donc de telles comparaisons devraient peut-être être prises avec des pincettes. Autant dire, selon Reber, "vous avez des tonnes et des tonnes d'espace".

Plus en haut ?

Les gens dotés de super-mémoires pourraient-ils alors avoir un cerveau exceptionnel ?

La réponse courte : non. Les détenteurs de records Pi, comme Lu, ainsi que la plupart des vainqueurs de championnats de mémoire, jurent qu'ils ne sont que des gens ordinaires qui se sont consacrés à entraîner leur cerveau pour retenir et récupérer des informations sélectionnées.

Nelson Dellis, vainqueur du championnat de la mémoire des États-Unis, dit que sa mémoire était en fait horrible avant qu'il ne devienne un athlète mental de compétition. La pratique a fait toute la différence. "En quelques semaines d'entraînement, peut-être même moins, vous faites quelque chose qui semble presque impossible à une personne normale", explique Dellis. "Nous avons tous cette compétence en nous."

Il y a plusieurs années, lorsque Dellis a commencé ses entraînements cérébraux, il lui a fallu 20 minutes pour mémoriser un jeu de cartes. Aujourd'hui, il peut mémoriser les 52 cartes en moins de 30 secondes, c'est-à-dire en un seul passage. Dellis s'entraîne jusqu'à cinq heures par jour sur le comptage de cartes et d'autres événements de compétition de mémoire avant de défendre avec succès son titre au USA Memory Championship 2015 le 29 mars à New York.

Certaines personnes peuvent se souvenir de l'ordre d'un jeu de cartes mélangé en 30 secondes (Crédit : Thinkstock)


Comment le cerveau humain se compare-t-il à un ordinateur ?

Nous vivons dans un monde où les ordinateurs peuvent surpasser les humains aux échecs, au Go et même au Jeopardy. L'intelligence artificielle et l'apprentissage automatique créent constamment de nouvelles percées, nous laissant nous demander si nous allons bientôt vivre dans une utopie technologique ou lutter pour notre survie contre un cyborg Arnold Schwarzenegger.

Mais les ordinateurs surpassent-ils globalement le cerveau humain ? Découvrons-le.

Pour les besoins de cet article, définissons un ordinateur comme un bureau personnel à usage non professionnel (c'est-à-dire pas un serveur fonctionnant 24h/24 et 7j/7).

Et pour simplifier les choses, nous limiterons les comparaisons à quatre domaines :

Espace de rangement

Pour une utilisation quotidienne, la plupart des utilisateurs d'ordinateurs se débrouilleront avec 500 Go de stockage. Les créatifs, les joueurs et autres utilisateurs gourmands en données s'appuient souvent sur un stockage supplémentaire sur le cloud ou sur un SSD portable. Pour les besoins de l'argument, nous allons donner à l'ordinateur une moyenne de 1 To d'espace de stockage.

Qu'en est-il de la capacité de stockage du cerveau ? Bon, c'est compliqué.

Les estimations varient sur le nombre de cellules nerveuses, ou neurones, qui existent dans un cerveau typique. De nombreuses études reposent sur 100 milliards de neurones, tandis qu'une étude de l'Université de Stanford estime que le cerveau possède en réalité 200 milliards de neurones.

Vous pensez peut-être : « Attendez, l'ordinateur a des octets et le cerveau a des neurones. Comment comparer les deux ?

Une différence marquée entre le cerveau humain et la mémoire flash de l'ordinateur est la capacité des neurones à se combiner les uns avec les autres pour aider à la création et au stockage de souvenirs. Chaque neurone a environ un millier de connexions avec d'autres neurones. Avec plus d'un billion de connexions dans un cerveau humain moyen, cet effet de chevauchement crée une capacité de stockage exponentiellement plus grande.

Sur la base de notre compréhension des neurones aujourd'hui, qui est très limitée, nous estimerions la capacité de stockage du cerveau à 1 pétaoctet, ce qui équivaudrait à plus d'un millier de SSD de 1 To.

Avantage : cerveau humain.

Mémoire

Jusqu'à présent, c'est un concours égal. Le cerveau humain a beaucoup plus de stockage qu'un ordinateur moyen. Et un ordinateur peut traiter des informations de manière exponentielle plus rapidement qu'un cerveau humain.

Et si on accédait à la mémoire ? Un humain peut-il mieux retenir les informations qu'un ordinateur ?

Eh bien, cela dépend de quels types d'informations nous parlons.

Pour les faits de base, la réponse est sans équivoque non. Si un ordinateur « sait » que la capitale du Nevada est Carson City, ce fait sera toujours accessible. Un humain, en revanche, peut devenir confus ou oublier ce fait avec le temps, en particulier après un long week-end à Vegas.

Là où les ordinateurs sont à la traîne des humains, c'est la capacité d'attribuer des classements qualitatifs à l'information. Pour un ordinateur, toutes les informations sont exactement les mêmes. Les humains, d'autre part, ont de nombreux types de souvenirs différents et hiérarchisent les souvenirs en fonction de leur importance. Vous vous souviendrez sans doute de nombreux détails sur le jour de votre mariage, mais vous avez probablement oublié ce que vous avez déjeuné jeudi dernier. (C'était un sandwich au thon sur du seigle, au cas où vous vous poseriez la question.)

Les humains racontent également des souvenirs entre eux, de sorte que votre souvenir du réveillon du Nouvel An sera lié à toutes vos autres célébrations du Nouvel An au cours de votre vie. Un ordinateur n'a pas cette capacité, du moins pour l'instant.

Efficacité énergétique

Le concours est toujours un tirage au sort. Les ordinateurs sont plus rapides et plus précis, tandis que les humains ont plus de capacité de stockage et de nuances dans l'accès aux mémoires.

Qu'en est-il de l'efficacité énergétique ? C'est ici que ça devient vraiment amusant.

Un ordinateur typique fonctionne avec une puissance d'environ 100 watts. Un cerveau humain, en revanche, nécessite environ 10 watts. C'est vrai, votre cerveau est dix fois plus économe en énergie qu'un ordinateur. Le cerveau a besoin de moins d'énergie qu'une ampoule.

Nous ne sommes peut-être pas les ampoules les plus brillantes de la boîte, mais encore une fois, nous n'avons pas à l'être.

Avantage : Cerveau humain

Conclusion

En fin de compte, il n'y a pas de gagnant clair dans l'ensemble. Les êtres humains et les ordinateurs ont leurs propres avantages, selon la catégorie. Si vous voulez de la précision et une vitesse de traitement brute, un ordinateur est le choix évident. If you want creativity, energy efficiency, and prioritization, a human is your best bet.

The good news is that we don’t have to choose. It doesn’t have to be a contest of humans against computers. We can work together and enjoy the best of both worlds. That is, until Skynet becomes self-aware.


Memory-related brain lateralisation in birds and humans

Visual imprinting in chicks and song learning in songbirds are prominent model systems for the study of the neural mechanisms of memory. In both systems, neural lateralisation has been found to be involved in memory formation. Although many processes in the human brain are lateralised--spatial memory and musical processing involves mostly right hemisphere dominance, whilst language is mostly left hemisphere dominant--it is unclear what the function of lateralisation is. It might enhance brain capacity, make processing more efficient, or prevent occurrence of conflicting signals. In both avian paradigms we find memory-related lateralisation. We will discuss avian lateralisation findings and propose that birds provide a strong model for studying neural mechanisms of memory-related lateralisation.

Mots clés: Auditory-vocal learning Avian brain Domestic chick Hemispheric dominance Human language lateralisation Imprinting Lateralisation Learning Memory Memory consolidation Memory formation Sensory learning Song learning Songbirds.


Conclusion and Perspectives

The MeshCODE theory presented here provides an original concept for the molecular basis of memory storage. I propose that memory is biochemical in nature, written in the form of different protein conformations in each of the trillions of synapses. This concept is based on the discovery of a complex network of mechanical switches in proteins like talin (Yao et al., 2016 Goult et al., 2018 Figure 2) that are built into the scaffolds of every synapse (Park and Goda, 2016 Lilja and Ivaska, 2018 Figure 3). These binary switches can be operated by the force-generation machinery of the cells cytoskeleton, offering a new view of the brain as a mechanical computer.

The capacity for storage of data in a binary form in each synapse identifies an addressable read-write memory mechanism, clearly pointing to a way, in which the brain might carry information forward in time and perform computation. Data written in binary, symbolic form would provide a basis for how the brain might function as an input-output system, in which its computation and data processing systems are founded on physical and mathematical principles (Gallistel and King, 2009). Remarkably, humankind’s efforts to produce optimal computation in silico may have led to architectures that bear a striking similarity to what nature might already have arrived at in vivo.

Sensory inputs are processed by the brain and trigger the appropriate motor responses as outputs allowing the animal to interact with the world. Action potential spike trains are well established as an organism’s way of sending information over long distances (Perkel et al., 1967 Strong et al., 1998 Fellous et al., 2004), similar to how electrical pulses carry information in electronic systems, yet quite how these voltage spikes that travel down axons carry information is not yet fully understood. In the MeshCODE framework proposed here, these spikes transfer information by altering the mechanical coding of both the sender and receiver cell. Diverse input signals, including visual, auditory, olfactory, temporal cues, self-movement (idiothetic), among others, are converted into electrical signals in the form of spike trains, and the precise patterns of these spikes trigger exact changes to the neurons. These changes include cytoskeletal alterations (Yao et al., 2006 Cingolani and Goda, 2008) which in the MeshCODE framework would update the switch patterns, such that the information the spike trains carry is integrated into the organism’s binary coding. This complex mechanical coding amounts to a machine code that is constantly running in all animals. From an initial state at birth, the life experiences and environmental conditions of the animal would be written into the code, creating a constantly updating, mathematical representation of the animal’s unique life. It is possible that consciousness is simply an emergent property arising from the interconnectedness of electrical signals connecting all these MeshCODEs, forming a complete mathematical representation of the world that gives rise to precise electrical signals that coordinate an entire biochemical organism in the context of its world.

The key to biochemical data storage would be the precise conformations of each mechanical switch in each and every synaptic adhesion. These conformations are mostly unmeasurable with existing technologies using microscopy the talin visible in adhesions will not appear to change, even as the conformations of each alters during memory formation. However, as the size and composition of each synaptic adhesion complex will change in response to these altered patterns then observation of the adhesions themselves, identification of the ligands that engage them, and correlating these with the synapses activity should provide a readout of the process. Visualising these complexes is further complicated as any perturbation of the system will result in altered MeshCODE arrangements. However, the technical capabilities to observe protein states and forces acting on proteins in cells are advancing rapidly (Kumar et al., 2016 Ringer et al., 2017 Lemke et al., 2019) and used in conjunction with super-resolution microscopy techniques (Leterrier et al., 2017 Schnitzbauer et al., 2017 Jacquemet et al., 2020), optogenetic techniques (Liu et al., 2012), and the well-established strategies for studying neurotransmission (reviewed in Kandel et al., 2014) such conformational changes during memory formation should be detectable. Further, a number of talin-binding compounds have recently been identified (Yang et al., 2017 Bryce et al., 2019) and the effect of such compounds on learning and memory in animal systems might provide opportunities to pharmaceutically modulate these processes.

As a final comment, physical storage of memory would have significant potential future implications, not least that it might make the stuff of science fiction possible. If memory and consciousness are biochemical in nature, it is possible that one day we will fully decipher how the MeshCODE stores and computes information to form a mathematical representation of the world. In doing so we may not only understand the computations of the human mind, but also allow the transfer of the human mind from neural networks onto silicon chips running the human Operating System. A biochemical basis of memory storage also raises the possibility to not only read the memory of the living, but also the dead. Although short term memory might be accessible only transiently after death, long term MeshCODEs that are “write protected” might be possible to read for the duration of the integrity of the brain.



Commentaires:

  1. Ambrus

    Ça arrive ... une telle coïncidence

  2. Zolojind

    Et où est la logique ?

  3. Anoki

    Très confortablement! conseiller

  4. JoJokasa

    Absolument avec vous, il est d'accord. Quelque chose y est également excellent, d'accord avec vous.

  5. Aethelisdun

    Aussi que nous ferions sans votre excellente phrase



Écrire un message