Sinapsis: Esquemáticamente, la sinapsis es un espacio pequeño donde se libera un neurotransmisor de un axón de una neurona, llamada neurona presináptica, y se une a los receptores de una dendrita de otra neurona llamada neurona postsináptica. Este evento lleva a la apertura de canales iónicos; Los iones fluyen a través de los canales; estas corrientes de iones cambian el potencial de membrana de la célula postsináptica siguiendo una dinámica específica. Dicho evento se denomina potencial post-sináptico y puede acercar el potencial de membrana al umbral (potencial post-sináptico excitador, EPSP), o alejarlo (inhibitorio, IPSP). A partir de ahora discutiré los EPSP solo por simplicidad.
Fuerza sináptica : en casos extremos, por ejemplo, las sinapsis formadas por las fibras trepadoras de las células de olivo inferior en las células de Purkinje de la corteza del cerebelo, donde cada pico presináptico evoca un EPSP tan fuerte que desencadena un pico postsináptico con 100% de fiabilidad. Sin embargo, en la mayoría de los casos, especialmente en los circuitos que realizan cálculos precisos, la amplitud de EPSP cuando se propaga al soma suele ser inferior a 5 mV. La amplitud del EPSP depende de la cantidad de receptores en el sitio post-sináptico de la sinapsis y de algunos otros factores importantes.
Cada sinapsis cuando está activada contribuye a la fluctuación del potencial de membrana. Cuanto mayor sea la amplitud media de la EPSP de cierta sinapsis, más influencia tendrá en la posibilidad de acercar el potencial de membrana al umbral. Por lo tanto, el término teórico “fuerza sináptica” tiene un significado funcional de la influencia relativa de una sinapsis en la posibilidad de aumentar, un significado fisiológico de la amplitud de la EPSP y un significado molecular de la expresión de receptores en el sitio postsináptico ( y otras proteínas responsables de los eventos postsináticos.
Integración sináptica y plasticidad : cada neurona está inervada por muchas células. Las estimaciones varían y la conectividad varía según las diferentes áreas y conexiones, pero se estima que las neuronas involucradas en tareas computacionales están inervadas por decenas a miles de otras neuronas. Esquemáticamente, los eventos sinápticos se integran y, cuando el potencial de membrana alcanza un umbral, la célula se dispara e informa a las neuronas que están más abajo. La memoria puede verse como un enlace causal reproducible entre los eventos sinápticos y la adición de una célula, es decir, una célula “aprende” a distinguir diferentes combinaciones de eventos sinápticos. El resultado de tal aprendizaje es la generación reproducible de patrones de clavos con respecto a estas combinaciones. Almacenar una memoria en un solo nivel de célula sería una modificación y un ajuste fino de las fortalezas sinápticas que conducirían al establecimiento de tal causalidad. La modificación de las fortalezas sinápticas se denomina plasticidad sináptica y se acepta ampliamente como un mecanismo principal del aprendizaje y la memoria.
- ¿Cuál es un recuerdo que nunca olvidarás?
- ¿Por qué los recuerdos se adhieren a la música (especialmente cuando son dolorosos) y recuerdo claramente esos sentimientos (en lo más profundo de mis huesos) cuando toco esa canción incluso cuando ha sido realmente larga?
- ¿Cuál es uno de tus incidentes inolvidables en la vida?
- Cómo suprimir u olvidar recuerdos de los últimos 2 años.
- ¿Cuál fue tu momento más memorable en la escuela / universidad?
Me gustaría enumerar varias cuestiones clave y preguntas abiertas en este contexto. Hay muchos más, pero estos me parecen interesantes, así que los enumero:
- Código disperso frente a código poblacional : hay una suposición oculta en la explicación de integración sináptica y plasticidad anterior: una sola neurona es importante. Es decir, los conceptos son “memorizados” por ciertas celdas. Busque “Simpsons Cell” o “Jennifer Anniston cell” en google y youtube o lea el artículo de Quiroga et al [1]. La alternativa es que ningún concepto o valor ambiental puede decodificarse a partir de una actividad de una sola célula, sino más bien a partir de la combinación de la actividad de cientos y miles de células (código de población). Aún no se ha alcanzado un consenso general con respecto a la dominación de codificación dispersa o de población.
- Código temporal vs. código de tarifa . Este problema está relacionado con el anterior, pero es un concepto separado. Los investigadores ven de manera diferente en qué medida es importante la sincronización de cada pico o, más generalmente, la organización temporal precisa de los picos, en la codificación de la información. Comprender el papel de la temporización en el código es crucial para comprender los procesos de integración sináptica y plasticidad sináptica. Elaboré un poco sobre este tema en una respuesta a otra pregunta quora.
- Aprendizaje supervisado vs. no supervisado . No hay consenso con respecto al tipo de aprendizaje que gobierna los procesos plásticos en áreas del cerebro como la corteza y el hipocampo. Mientras que algunos investigadores señalan que la dopamina y otros neuromoduladores son una señal de enseñanza necesaria para el aprendizaje y afirman que no existe un aprendizaje no supervisado en el cerebro, otros tienden a creer que la red de picos se adapta a importantes patrones de entrada y, por lo tanto, se modifica a sí misma sin “supervisión” y esto Es el mecanismo central de la formación de la memoria, mientras que el resto cumple funciones secundarias.
Notas al pie
[1] http://dx.doi.org/10.1038/nature…