¿Cómo almacenan los recuerdos las sinapsis?

Sinapsis: Esquemáticamente, la sinapsis es un espacio pequeño donde se libera un neurotransmisor de un axón de una neurona, llamada neurona presináptica, y se une a los receptores de una dendrita de otra neurona llamada neurona postsináptica. Este evento lleva a la apertura de canales iónicos; Los iones fluyen a través de los canales; estas corrientes de iones cambian el potencial de membrana de la célula postsináptica siguiendo una dinámica específica. Dicho evento se denomina potencial post-sináptico y puede acercar el potencial de membrana al umbral (potencial post-sináptico excitador, EPSP), o alejarlo (inhibitorio, IPSP). A partir de ahora discutiré los EPSP solo por simplicidad.

Fuerza sináptica : en casos extremos, por ejemplo, las sinapsis formadas por las fibras trepadoras de las células de olivo inferior en las células de Purkinje de la corteza del cerebelo, donde cada pico presináptico evoca un EPSP tan fuerte que desencadena un pico postsináptico con 100% de fiabilidad. Sin embargo, en la mayoría de los casos, especialmente en los circuitos que realizan cálculos precisos, la amplitud de EPSP cuando se propaga al soma suele ser inferior a 5 mV. La amplitud del EPSP depende de la cantidad de receptores en el sitio post-sináptico de la sinapsis y de algunos otros factores importantes.

Cada sinapsis cuando está activada contribuye a la fluctuación del potencial de membrana. Cuanto mayor sea la amplitud media de la EPSP de cierta sinapsis, más influencia tendrá en la posibilidad de acercar el potencial de membrana al umbral. Por lo tanto, el término teórico “fuerza sináptica” tiene un significado funcional de la influencia relativa de una sinapsis en la posibilidad de aumentar, un significado fisiológico de la amplitud de la EPSP y un significado molecular de la expresión de receptores en el sitio postsináptico ( y otras proteínas responsables de los eventos postsináticos.

Integración sináptica y plasticidad : cada neurona está inervada por muchas células. Las estimaciones varían y la conectividad varía según las diferentes áreas y conexiones, pero se estima que las neuronas involucradas en tareas computacionales están inervadas por decenas a miles de otras neuronas. Esquemáticamente, los eventos sinápticos se integran y, cuando el potencial de membrana alcanza un umbral, la célula se dispara e informa a las neuronas que están más abajo. La memoria puede verse como un enlace causal reproducible entre los eventos sinápticos y la adición de una célula, es decir, una célula “aprende” a distinguir diferentes combinaciones de eventos sinápticos. El resultado de tal aprendizaje es la generación reproducible de patrones de clavos con respecto a estas combinaciones. Almacenar una memoria en un solo nivel de célula sería una modificación y un ajuste fino de las fortalezas sinápticas que conducirían al establecimiento de tal causalidad. La modificación de las fortalezas sinápticas se denomina plasticidad sináptica y se acepta ampliamente como un mecanismo principal del aprendizaje y la memoria.

Me gustaría enumerar varias cuestiones clave y preguntas abiertas en este contexto. Hay muchos más, pero estos me parecen interesantes, así que los enumero:

  • Código disperso frente a código poblacional : hay una suposición oculta en la explicación de integración sináptica y plasticidad anterior: una sola neurona es importante. Es decir, los conceptos son “memorizados” por ciertas celdas. Busque “Simpsons Cell” o “Jennifer Anniston cell” en google y youtube o lea el artículo de Quiroga et al [1]. La alternativa es que ningún concepto o valor ambiental puede decodificarse a partir de una actividad de una sola célula, sino más bien a partir de la combinación de la actividad de cientos y miles de células (código de población). Aún no se ha alcanzado un consenso general con respecto a la dominación de codificación dispersa o de población.
  • Código temporal vs. código de tarifa . Este problema está relacionado con el anterior, pero es un concepto separado. Los investigadores ven de manera diferente en qué medida es importante la sincronización de cada pico o, más generalmente, la organización temporal precisa de los picos, en la codificación de la información. Comprender el papel de la temporización en el código es crucial para comprender los procesos de integración sináptica y plasticidad sináptica. Elaboré un poco sobre este tema en una respuesta a otra pregunta quora.
  • Aprendizaje supervisado vs. no supervisado . No hay consenso con respecto al tipo de aprendizaje que gobierna los procesos plásticos en áreas del cerebro como la corteza y el hipocampo. Mientras que algunos investigadores señalan que la dopamina y otros neuromoduladores son una señal de enseñanza necesaria para el aprendizaje y afirman que no existe un aprendizaje no supervisado en el cerebro, otros tienden a creer que la red de picos se adapta a importantes patrones de entrada y, por lo tanto, se modifica a sí misma sin “supervisión” y esto Es el mecanismo central de la formación de la memoria, mientras que el resto cumple funciones secundarias.

Notas al pie

[1] http://dx.doi.org/10.1038/nature…

(Imagen cortesía de: Khan Academy)

Como muestra la imagen anterior, Synapse es solo el cruce. Aunque una neurona típica tiene solo un axón, el axón puede tener miles de ramas que se conectan simultáneamente a miles de neuronas receptoras (más comúnmente en sus dendritas, a veces en el cuerpo ( soma ) o un axón también).

Los axones tienen sacos de sustancias químicas (neurotransmisores) en sus terminales. Cuando la comunicación ocurre entre dos neuronas, estos químicos se liberan y pasan a través de la brecha (unión, sinapsis) y se unen a los receptores de la neurona receptora, receptores que son específicos de los neurotransmisores. Es decir, el remitente puede enviar a través de cualquiera o muchos, pero el receptor acepta solo la sustancia química para la cual tiene receptores. En segundo lugar, cuando la comunicación ocurre una vez y se refuerza (a través de transmisiones repetidas), el remitente y el receptor se conocen entre sí.

Debido a la primera característica, una relación uno a uno no es binaria sino una relación calificada. Dado el segundo hecho, puede formarse una red de neuronas que pueden estar activas simultáneamente como una única malla / red.

La comprensión actual es que una de estas redes puede representar de manera única un segmento de memoria particular. Podemos suponer que una red de tales redes puede representar una memoria que contiene todas sus partes constituyentes. Además, los axones se conectan no solo localmente sino a través de las regiones del cerebro. Por lo tanto, una unidad / pieza de memoria lógica puede tener partes constituyentes que se sientan en ubicaciones físicamente separadas. Por ejemplo, una memoria puede tener partes visuales y de audio que pueden residir en sus propias áreas.

Recordar una memoria implica invocar esta red a través de algún mecanismo, trabajando en algún momento. Esta invocación trae la memoria a la conciencia.

Ahora, ¿cómo activar una red (que representa una memoria) puede hacernos ver u oír eso mentalmente? No creo que nadie lo sepa, todavía. Este tipo de organización tiene la excelente calidad de que la activación de un constituyente puede activar las neuronas conectadas en todo. Por lo tanto, una señal visual puede generar uno o varios de los diversos recuerdos de los cuales la señal es parte.

Lo anterior es una descripción horriblemente simplificada. El funcionamiento real de la memoria debe ser extremadamente complejo y complicado también.

Abordaré un aspecto de esta pregunta aquí: ¿Cómo localiza el cerebro una memoria específica?

Brevemente, las neuronas hablan unas con otras en sinapsis. Una neurona envía una señal a otra en la sinapsis utilizando neurotransmisores. Estos son químicos (como la acetilcolina, la dopamina, la serotonina y muchos otros) que transmiten el mensaje de una neurona a la otra en la sinapsis. Si la conexión es fuerte, la segunda neurona responderá a esa señal. Algunos recuerdos, posiblemente muchos, se almacenan como una conexión más fuerte o más débil en la sinapsis.

La fuerza de la conexión está determinada por muchos factores. Éstos son algunos de los principales. Si la primera neurona tiene muchas sinapsis (conexiones) con la segunda neurona, la conexión es más fuerte. Si la primera neurona libera más neurotransmisores (sustancias químicas que envían la señal), la conexión es más fuerte. Si la segunda neurona tiene muchos receptores (sustancias químicas que responden al neurotransmisor), la conexión es más fuerte.

Las sinapsis son muy eficientes en este trabajo.

digamos que intentas recordar alguna frase o el ejemplo más común que puedo darte es escribir tu contraseña como contraseña de inicio de sesión de computadora y como yo supongo que tampoco eres un buen mecanógrafo

al principio no será tan eficiente al escribir su contraseña, pero la escribirá y las neuronas ESPECÍFICAS del cuerpo pasan este mensaje a los centros superiores, como el área límbica y el hipocampo, la próxima vez que escriba nuevamente, ahora las neuronas desarrollan permeabilidad para este tipo de mensaje pasando a través de ellos

Ahora, cada vez que escribe su contraseña, se vuelven aún más permeables o adaptables a este mensaje.

Este tipo de memoria se llama memoria de procedimiento.

Ahora hay otros tipos de memorias también como memoria declarativa que implica almacenar memoria de eventos específicos

espero que lo tengas

Un investigador enseñó a ratones jóvenes a navegar a través de un laberinto. Luego mató a los ratones y cortó láminas delgadas de su cerebro. Comparó sus cerebros con los de ratones jóvenes, que no habían aprendido nada. Descubrió cambios químicos sustanciales, localizados en la base de la dendrita.

Cuando se aprende algo nuevo, una neurona brota una dendrita, que forma al menos una nueva conexión. Eso es memoria a largo plazo.

Google Lara Boyd Tedxtalk Youtube. Según ella, la memoria a corto plazo se almacena químicamente, pero no genera una dendrita.

La sinapsis por sí sola no hace mucho. Si entiendes las computadoras, las sinapsis son muy parecidas a las I y O en el procesador. Lo que hace que nuestros cerebros sean las conexiones entre las neuronas y la arquitectura que presentan. Al igual que las cadenas lógicas: no puede responder mucho con SÍ, NO, Y. Pero esa es una forma simple de explicar cómo una neurona afecta a otra. Se modulan, activan o desactivan entre sí, y una neurona está conectada a través de muchas otras.

Es por eso que no adquieres una habilidad de la noche a la mañana. Tu cerebro debe primero hacer sus conexiones. También es por eso que olvidamos muchas cosas, las conexiones que son importantes se refuerzan, las conexiones que no usamos se deshacen.

La mejor respuesta en este momento es que no sabemos. Podemos decir que los recuerdos se almacenan en el cerebro de alguna manera, ya que la estimulación directa del cerebro puede desencadenar recuerdos. Sin embargo, los métodos exactos todavía están siendo estudiados.