Tendencias21
Desarrollan una tecnología que adivina a quién o qué escuchamos

Desarrollan una tecnología que adivina a quién o qué escuchamos

Científicos de la Universidad de Maastricht, en los Países Bajos, han desarrollado una novedosa tecnología que permite averiguar qué y a quién escucha una persona a partir de su actividad cerebral. La combinación de técnicas de registro de neuroimágenes con un procesador data mining ha permitido definir y traducir las huellas neuronales que dejan los sonidos y los tonos de voz en nuestro cerebro. Este descubrimiento permitirá mejorar sistemas computacionales de reconocimiento de hablantes y de discurso. Por Yaiza Martínez.

Desarrollan una tecnología que adivina a quién o qué escuchamos

Un equipo de científicos de la Universidad de Maastricht, en los Países Bajos, ha conseguido desarrollar un método para saber quién habla a una persona y qué le está diciendo, únicamente analizando el cerebro del que escucha, sin contar con ninguna información extra.

Según publica la Universidad de Maastricht en un comunicado, este logro ha sido posible gracias al uso de neuroimágenes y de un algoritmo de “data mining” o minería de datos.

La neuroimagen incluye diversas técnicas (como la tomografía axial computarizada, la simulación de resonancia magnética o la exploración de resonancia magnética funcional, entre otras) que permiten captar tanto imágenes estructurales como funcionales del cerebro.

Mapa de la actividad cerebral

El data mining, por su parte, consiste en la extracción de información significativa que permanece implícita en un conjunto de datos. La minería da datos prepara, sondea y explora los datos para sacar la información oculta en ellos, es decir, en las relaciones entre dichos datos, en sus fluctuaciones y en sus dependencias.

Con estas técnicas, los investigadores consiguieron hacer un “mapa” de la actividad cerebral asociada con el reconocimiento de los sonidos y de las voces.

Según publican los científicos en un artículo aparecido en la revista Science, la combinación de imágenes obtenidas con resonancia magnética funcional de los cerebros de los participantes con la información desprendida del algoritmo de data mining permitió conocer quién le decía qué a una persona, a partir de las “huellas neuronales” que las señales de voz y del discurso producían como respuesta en la corteza auditiva del escuchante.

Estas huellas corticales estaban distribuidas espacialmente de una manera concreta, y se repetían cada vez que el participante escuchaba un discurso o una voz previamente aprendidos. Por eso, fue posible el reconocimiento, sólo a través de imágenes cerebrales, de lo que estaba escuchando el oyente y de a quién se lo estaba oyendo decir.

Huellas neuronales

Según explican los investigadores, los sonidos pronunciados y las voces pueden ser identificados porque cada uno produce una única “huella neuronal” en el cerebro de quien los escucha.

Siete personas fueron sometidas a la siguiente prueba: tuvieron que escuchar tres sonidos distintos (en concreto tres vocales), que fueron pronunciados por tres personas diferentes.

Entretanto, la actividad cerebral de los participantes fue registrada mediante una exploración de resonancia magnética funcional (fMRI). La tecnología fMRI mide la respuesta hemodinámica relacionada con la actividad neuronal del cerebro, y es una de las más novedosas técnicas de captación de neuroimágenes.

Con la ayuda del algoritmo de data mining o de minería de datos, los investigadores tradujeron esta actividad cerebral a pratrones únicos que determinaban la identidad de la persona que había pronunciado la vocal, y también la vocal pronunciada.

Se definieron de esta manera los patrones neuronales de la actividad cerebral que se correspondían con las diversas características acústicas de las vibraciones de las cuerdas vocales.

Procesamiento no jerárquico del sonido

Según los investigadores, estos patrones neuronales funcionan como auténticas huellas únicas y específicas: la huella neuronal de un sonido pronunciado no cambia si este sonido es producido por otra persona, mientras que la huella que deja un hablante concreto se mantiene siempre igual, incluso si dicho hablante dice algo distinto.

Este estudio ha revelado, por otro lado, que parte del complejo proceso de decodificación de sonidos tiene lugar en áreas del cerebro que anteriormente habían sido asociadas sólo con los estadios iniciales del procesamiento del sonido.

Los modelos neurocognitivos existentes asumen que los sonidos procesados implican activamente diversas regiones del cerebro, siguiendo una cierta jerarquía: tras un procesamiento simple en la corteza auditiva, un análisis más complejos (por ejemplo del sonido de las palabras) se desarrolla en regiones más especializadas del cerebro.

Sin embargo, los resultados de la presente investigación implican que el procesamiento del sonido es menos jerárquico y se expande más de lo que se pensaba por el misterioso cerebro.

Una de las posibles aplicaciones de estos nuevos conocimientos podría ser la de mejorar sistemas computacionales de reconocimiento de hablantes y de discurso.

Yaiza Martinez

Hacer un comentario

RSS Lo último de Tendencias21

  • Partículas desconocidas de energía oscura serían la fuerza impulsora detrás de la expansión del Universo 20 marzo, 2024
    Una nueva investigación teórica sugiere que la misteriosa energía oscura estaría compuesta por "no partículas" y podría estar ligada a la expansión del cosmos, "separando" lentamente al Universo. Esto explicaría por qué los científicos no logran comprender aún en profundidad cómo el Universo se expande de forma cada vez más acelerada. También revelaría la causa […]
    Pablo Javier Piacente
  • Las mujeres científicas lideran las investigaciones sobre la sequía 20 marzo, 2024
    Las mujeres científicas están a la vanguardia de las investigaciones sobre la sequía para preservar la producción agrícola, gestionar el agua y mitigar los efectos del calentamiento global. Sobre el terreno, están también mejor preparadas para gestionar los desastres naturales.
    Alicia Domínguez y Eduardo Costas (*)
  • Los robots humanoides llegan a la industria automotriz 20 marzo, 2024
    Mercedes ha contratado robots humanoides para trabajar en sus fábricas: participan en las líneas de ensamblaje y automatizan tareas de baja complejidad y alta exigencia física.
    Redacción T21
  • Revelan cómo nace el miedo en el cerebro y una posible vía para paralizarlo 19 marzo, 2024
    Un nuevo estudio ha logrado descifrar una serie de modificaciones en la química cerebral que, al influir sobre circuitos neuronales específicos, provocan que el miedo se generalice y aparezca en situaciones en las que no debería hacerlo. Este sistema es el que genera la sensación de miedo exacerbada y permanente que experimentan las personas que […]
    Pablo Javier Piacente
  • Crean el mapa 3D más extenso de los agujeros negros supermasivos activos del Universo 19 marzo, 2024
    En una verdadera proeza astronómica, los científicos han creado el mapa más extenso hasta el momento de los agujeros negros supermasivos activos y cuásares en el cosmos: el avance marca un salto significativo en nuestra comprensión de estos gigantes cósmicos y podría ayudar a entender mejor las propiedades de la materia oscura.
    Pablo Javier Piacente
  • Descubren cómo las primeras células de la Tierra aprovecharon el H2 como fuente de energía 19 marzo, 2024
    Un nuevo informe descubre cómo el gas hidrógeno, la energía del futuro, proporcionó energía en el pasado, en el origen de la vida hace 4 mil millones de años. Y confirmaría que la vida se originó en respiradores hidrotermales.
    HHU/T21
  • Algo extraño ocurre en el Cometa Diablo que nos visita durante el eclipse solar de abril 19 marzo, 2024
    Un cometa casi tan famoso como el Halley está brillando en el cielo nocturno de la Tierra y podría ser visible durante el eclipse solar total del 8 de abril que tendrá lugar sobre Norteamérica, pero algo extraño parece suceder en su núcleo.
    Redacción T21
  • Resuelto el misterio de una criatura marina con un caparazón repleto de ojos 18 marzo, 2024
    Los quitones o chitones son moluscos marinos dotados de pequeños ojos desperdigados por todo su caparazón, con lentes confeccionados con un mineral llamado aragonita. Estos primitivos órganos sensoriales son capaces de distinguir formas y luz: un nuevo estudio ha revelado por qué evolucionaron tan rápidamente y cuál es su papel en el desarrollo de los […]
    Pablo Javier Piacente
  • La mayor erupción volcánica de la era geológica actual ocurrió en Japón hace 7.300 años 18 marzo, 2024
    Un estudio detallado de los depósitos volcánicos submarinos alrededor de la caldera Kikai, en Japón, descubrió que un evento que tuvo lugar en esa región de Asia hace 7.300 años fue, con claridad, la mayor erupción volcánica registrada en el planeta durante el Holoceno, la época geológica actual iniciada hace aproximadamente 11.500 años.
    Pablo Javier Piacente
  • Las enfermedades neurológicas ya son el primer problema de salud mundial 18 marzo, 2024
    El 43% de la población mundial padece enfermedades neurológicas: afectan a 3.400 millones de personas y cuestan la pérdida de 443 millones de años de vida saludable. España supera en un 18% la media mundial de afectados por patologías que van desde dolores de cabeza tensionales hasta accidentes cerebrovasculares.
    Redacción T21