Tendencias21
Desarrollan una tecnología que adivina a quién o qué escuchamos

Desarrollan una tecnología que adivina a quién o qué escuchamos

Científicos de la Universidad de Maastricht, en los Países Bajos, han desarrollado una novedosa tecnología que permite averiguar qué y a quién escucha una persona a partir de su actividad cerebral. La combinación de técnicas de registro de neuroimágenes con un procesador data mining ha permitido definir y traducir las huellas neuronales que dejan los sonidos y los tonos de voz en nuestro cerebro. Este descubrimiento permitirá mejorar sistemas computacionales de reconocimiento de hablantes y de discurso. Por Yaiza Martínez.

Desarrollan una tecnología que adivina a quién o qué escuchamos

Un equipo de científicos de la Universidad de Maastricht, en los Países Bajos, ha conseguido desarrollar un método para saber quién habla a una persona y qué le está diciendo, únicamente analizando el cerebro del que escucha, sin contar con ninguna información extra.

Según publica la Universidad de Maastricht en un comunicado, este logro ha sido posible gracias al uso de neuroimágenes y de un algoritmo de “data mining” o minería de datos.

La neuroimagen incluye diversas técnicas (como la tomografía axial computarizada, la simulación de resonancia magnética o la exploración de resonancia magnética funcional, entre otras) que permiten captar tanto imágenes estructurales como funcionales del cerebro.

Mapa de la actividad cerebral

El data mining, por su parte, consiste en la extracción de información significativa que permanece implícita en un conjunto de datos. La minería da datos prepara, sondea y explora los datos para sacar la información oculta en ellos, es decir, en las relaciones entre dichos datos, en sus fluctuaciones y en sus dependencias.

Con estas técnicas, los investigadores consiguieron hacer un “mapa” de la actividad cerebral asociada con el reconocimiento de los sonidos y de las voces.

Según publican los científicos en un artículo aparecido en la revista Science, la combinación de imágenes obtenidas con resonancia magnética funcional de los cerebros de los participantes con la información desprendida del algoritmo de data mining permitió conocer quién le decía qué a una persona, a partir de las “huellas neuronales” que las señales de voz y del discurso producían como respuesta en la corteza auditiva del escuchante.

Estas huellas corticales estaban distribuidas espacialmente de una manera concreta, y se repetían cada vez que el participante escuchaba un discurso o una voz previamente aprendidos. Por eso, fue posible el reconocimiento, sólo a través de imágenes cerebrales, de lo que estaba escuchando el oyente y de a quién se lo estaba oyendo decir.

Huellas neuronales

Según explican los investigadores, los sonidos pronunciados y las voces pueden ser identificados porque cada uno produce una única “huella neuronal” en el cerebro de quien los escucha.

Siete personas fueron sometidas a la siguiente prueba: tuvieron que escuchar tres sonidos distintos (en concreto tres vocales), que fueron pronunciados por tres personas diferentes.

Entretanto, la actividad cerebral de los participantes fue registrada mediante una exploración de resonancia magnética funcional (fMRI). La tecnología fMRI mide la respuesta hemodinámica relacionada con la actividad neuronal del cerebro, y es una de las más novedosas técnicas de captación de neuroimágenes.

Con la ayuda del algoritmo de data mining o de minería de datos, los investigadores tradujeron esta actividad cerebral a pratrones únicos que determinaban la identidad de la persona que había pronunciado la vocal, y también la vocal pronunciada.

Se definieron de esta manera los patrones neuronales de la actividad cerebral que se correspondían con las diversas características acústicas de las vibraciones de las cuerdas vocales.

Procesamiento no jerárquico del sonido

Según los investigadores, estos patrones neuronales funcionan como auténticas huellas únicas y específicas: la huella neuronal de un sonido pronunciado no cambia si este sonido es producido por otra persona, mientras que la huella que deja un hablante concreto se mantiene siempre igual, incluso si dicho hablante dice algo distinto.

Este estudio ha revelado, por otro lado, que parte del complejo proceso de decodificación de sonidos tiene lugar en áreas del cerebro que anteriormente habían sido asociadas sólo con los estadios iniciales del procesamiento del sonido.

Los modelos neurocognitivos existentes asumen que los sonidos procesados implican activamente diversas regiones del cerebro, siguiendo una cierta jerarquía: tras un procesamiento simple en la corteza auditiva, un análisis más complejos (por ejemplo del sonido de las palabras) se desarrolla en regiones más especializadas del cerebro.

Sin embargo, los resultados de la presente investigación implican que el procesamiento del sonido es menos jerárquico y se expande más de lo que se pensaba por el misterioso cerebro.

Una de las posibles aplicaciones de estos nuevos conocimientos podría ser la de mejorar sistemas computacionales de reconocimiento de hablantes y de discurso.

Yaiza Martinez

Hacer un comentario

RSS Lo último de Tendencias21

  • Crean bebés digitales para mejorar la atención sanitaria infantil 27 junio, 2024
    Un equipo de investigadores desarrolló modelos informáticos que simulan los procesos metabólicos únicos de cada bebé: los “gemelos digitales” pueden ayudar a comprender mejor las enfermedades metabólicas raras y otros desafíos que enfrentan los bebés humanos durante los primeros 6 meses de vida, que son críticos para su crecimiento posterior.
    Pablo Javier Piacente
  • Los vientos espaciales son similares a los que soplan en la Tierra 27 junio, 2024
    Los científicos han descubierto corrientes en el espacio que reflejan de manera inquietante los vientos que giran cerca de la superficie de la Tierra, lo que sugiere fuerzas ocultas que los conectan. Este nuevo conocimiento podría proporcionarnos una mejor comprensión de los sistemas ambientales que circulan alrededor del globo y mejorar los pronósticos meteorológicos espaciales […]
    Pablo Javier Piacente
  • Los archivos geológicos anticipan nuestro futuro climático 27 junio, 2024
    Hace 56 millones de años, la erosión del suelo se cuadruplicó en el planeta debido a las fuertes lluvias y las inundaciones de los ríos provocadas por un calentamiento global muy similar al que conocemos hoy.
    Eduardo Martínez de la Fe
  • Ya es posible transmitir el tacto a través de Internet 26 junio, 2024
    Un nuevo estándar para la compresión y transmisión del sentido del tacto mediante Internet sienta las bases para la telecirugía, la teleconducción y nuevas experiencias de juego en línea, entre otras aplicaciones. El flamante estándar HCTI (Haptic Codecs for the Tactile Internet) es para el “tacto digital” lo que son JPEG, MP3 y MPEG para […]
    Pablo Javier Piacente
  • Las primeras muestras de la cara oculta de la Luna ya están en la Tierra 26 junio, 2024
    La cápsula de reingreso de la sonda Chang'e-6 de China, que transporta hasta dos kilogramos de materiales extraídos y perforados de la cuenca más antigua de la Luna ubicada en su lado oscuro, aterrizó este martes 25 de junio en la región de Mongolia Interior y fue rápidamente recuperada, según informó la Administración Nacional del […]
    Pablo Javier Piacente
  • La Tierra tendrá dos soles dentro de 1,3 millones de años y durante 60.000 años 26 junio, 2024
    Dentro de 1,3 millones de años, la Tierra tendrá una especie de segundo sol porque la estrella Gliese 710 se acercará a 1,1 años luz de la Tierra y la veríamos del mismo tamaño que Júpiter. Lo malo es que esa alteración cósmica puede provocar un episodio en nuestro planeta como el que acabó con […]
    Eduardo Martínez de la Fe
  • China descubre grafeno natural en la Luna 25 junio, 2024
    Investigadores chinos han descubierto recientemente grafeno natural de escasas capas por primera vez en la Luna, a partir de las muestras traídas a la Tierra por la sonda Chang'e 5. El hallazgo proporciona nuevos conocimientos sobre las actividades geológicas, la historia evolutiva y las características ambientales de la Luna.
    Pablo Javier Piacente
  • Los incendios forestales extremos se duplicaron en los últimos 20 años en todo el planeta 25 junio, 2024
    Una nueva investigación concluye que la frecuencia e intensidad de los incendios forestales extremos se ha más que duplicado en todo el mundo en las últimas dos décadas, debido al calentamiento global antropogénico y otros factores relacionados. Se trata de la primera ocasión en la cual los científicos pudieron trazar una tendencia global para los […]
    Pablo Javier Piacente
  • Detectado en el Mediterráneo el neutrino más energético del universo 25 junio, 2024
    El neutrino más potente jamás observado ha dejado su huella en las profundidades del Mediterráneo, aunque todavía se desconoce de qué rincón del universo procede. Los neutrinos cosmogénicos son los mensajeros de algunos de los eventos más cataclísmicos del cosmos.
    Eduardo Martínez de la Fe
  • La IA identifica seis formas diferentes de depresión 24 junio, 2024
    Los científicos han identificado seis formas biológicamente distintas de depresión gracias a la aplicación de la Inteligencia Artificial (IA) en estudios cerebrales. El hallazgo podría explicar por qué algunas personas no responden a los tratamientos tradicionales para la afección, como los antidepresivos y la terapia psicológica.
    Pablo Javier Piacente