Tendencias21

Un dial cerebral distingue el habla de otros sonidos

El cerebro posee un centro de procesamiento destinado a diferenciar los distintos sonidos, pero además una red neuronal específica y desconocida hasta hoy que, a modo del dial de una radio, logra distinguir el habla con la ayuda de un neuromodulador.

Un grupo de neuronas especializadas conforma una red con la función de reconocer el habla del resto de los sonidos, de acuerdo a una investigación realizada por científicos de la Universidad de Lehigh, en Estados Unidos. Se trata de la primera evidencia fisiológica sobre la existencia de este circuito neuronal, que trabaja a la par de un sistema de neuromodulación.

Según un comunicado, la acetilcolina cumple en este caso la función de neuromodulador, ayudando a la red neuronal especializada a clasificar los diferentes sonidos y, concretamente, a distinguir el habla dentro de la enorme cantidad y diversidad de información sonora que reciben nuestros oídos a cada segundo. El estudio fue publicado en la revista Journal of Neuroscience y recibió una mención como “investigación destacada”.

Mediante experimentos electrofisiológicos y análisis de datos, los neurocientíficos pudieron demostrar que la entrada del neuromodulador influye directamente en la codificación de la información acústica por parte de un área especializada en ese campo, el denominado núcleo medial del cuerpo trapezoide (MNTB). Las neuronas MNTB mejoran su “sensibilidad” frente a los estímulos sonoros con la modulación de la acetilcolina.

Básicamente, la nueva investigación logró confirmar que el cerebro identifica el habla del resto de los sonidos gracias al trabajo conjunto entre la acetilcolina, un neurotransmisor ampliamente distribuido en el cerebro que este caso cumple funciones de modulación, y las neuronas MNTB, que activan el procesamiento de señales acústicas. Dichas neuronas tienen la capacidad de cumplir funciones mucho más complejas de las que se pensaba en un primer momento.

Redes neuronales “sintonizando” el habla

El sistema interconectado destinado a trabajar con las señales acústicas utiliza circuitos neuronales más amplios y menos específicos, que se superponen a otros altamente especializados. De esta manera, los neuromoduladores regulan la dinámica general y luego las redes neuronales especializadas, como en el caso de las neuronas MNTB, clasifican los sonidos y los identifican, discriminando el habla del ruido del tráfico, por ejemplo.

El proceso de modulación puede pensarse como algo similar al esfuerzo de sintonizar una estación de radio: modificamos los parámetros hasta conseguir captar la señal buscada. De la misma forma, la acetilcolina optimiza la capacidad de las redes neuronales para identificar la información sonora, hasta lograr que sean capaces de discriminar el habla de otros ruidos y sonidos.

Para R. Michael Burger, profesor de neurociencia en la Universidad de Lehigh y uno de los responsables del estudio, “aunque el fenómeno de la influencia de estos moduladores se ha estudiado a nivel de la neocorteza, donde ocurren los cálculos más complejos del cerebro, rara vez se ha estudiado en los niveles más fundamentales. Estos circuitos, considerados mayormente como simples, son en realidad altamente complejos y se encuentran sujetos a la influencia moduladora como las regiones superiores del cerebro”, destacó.

Nuevas conexiones

Al mismo tiempo, los investigadores identificaron por primera vez un conjunto de conexiones completamente desconocidas en el cerebro hasta hoy. Ubicadas entre los centros moduladores y el núcleo MNTB, también cumplen un papel vital en la identificación del habla y otras fuentes de información sonora.

De acuerdo a los especialistas, los hallazgos pueden ser útiles para comprender la contribución de la neuromodulación en los procesos computacionales fundamentales que tienen lugar en los circuitos cerebrales auditivos. Además, podrían colaborar para entender la forma en la cual se procesa otra información sensorial en el cerebro.

En definitiva, somos capaces de interpretar el habla y distinguirla del resto de los sonidos a partir de una compleja red neuronal interconectada con diferentes partes del cerebro, que mejora su sensibilidad a partir de la ayuda de los neuromoduladores como la acetilcolina.

Referencia

How visual perspective influences the spatiotemporal dynamics of autobiographical memory retrieval. Chao Zhang, Nichole L. Beebe, Brett R. Schofield, Michael Pecka and R. Michael Burger. Journal of Neuroscience (2020).DOI:https://doi.org/10.1523/JNEUROSCI.1633-20.2020

Foto: Gerd Altmann en Pixabay.

Pablo Javier Piacente

Pablo Javier Piacente

Pablo Javier Piacente es periodista especializado en comunicación científica y tecnológica.

Hacer un comentario