Tendencias21
Desarrollan una tecnología que adivina a quién o qué escuchamos

Desarrollan una tecnología que adivina a quién o qué escuchamos

Científicos de la Universidad de Maastricht, en los Países Bajos, han desarrollado una novedosa tecnología que permite averiguar qué y a quién escucha una persona a partir de su actividad cerebral. La combinación de técnicas de registro de neuroimágenes con un procesador data mining ha permitido definir y traducir las huellas neuronales que dejan los sonidos y los tonos de voz en nuestro cerebro. Este descubrimiento permitirá mejorar sistemas computacionales de reconocimiento de hablantes y de discurso. Por Yaiza Martínez.

Desarrollan una tecnología que adivina a quién o qué escuchamos

Un equipo de científicos de la Universidad de Maastricht, en los Países Bajos, ha conseguido desarrollar un método para saber quién habla a una persona y qué le está diciendo, únicamente analizando el cerebro del que escucha, sin contar con ninguna información extra.

Según publica la Universidad de Maastricht en un comunicado, este logro ha sido posible gracias al uso de neuroimágenes y de un algoritmo de “data mining” o minería de datos.

La neuroimagen incluye diversas técnicas (como la tomografía axial computarizada, la simulación de resonancia magnética o la exploración de resonancia magnética funcional, entre otras) que permiten captar tanto imágenes estructurales como funcionales del cerebro.

Mapa de la actividad cerebral

El data mining, por su parte, consiste en la extracción de información significativa que permanece implícita en un conjunto de datos. La minería da datos prepara, sondea y explora los datos para sacar la información oculta en ellos, es decir, en las relaciones entre dichos datos, en sus fluctuaciones y en sus dependencias.

Con estas técnicas, los investigadores consiguieron hacer un “mapa” de la actividad cerebral asociada con el reconocimiento de los sonidos y de las voces.

Según publican los científicos en un artículo aparecido en la revista Science, la combinación de imágenes obtenidas con resonancia magnética funcional de los cerebros de los participantes con la información desprendida del algoritmo de data mining permitió conocer quién le decía qué a una persona, a partir de las “huellas neuronales” que las señales de voz y del discurso producían como respuesta en la corteza auditiva del escuchante.

Estas huellas corticales estaban distribuidas espacialmente de una manera concreta, y se repetían cada vez que el participante escuchaba un discurso o una voz previamente aprendidos. Por eso, fue posible el reconocimiento, sólo a través de imágenes cerebrales, de lo que estaba escuchando el oyente y de a quién se lo estaba oyendo decir.

Huellas neuronales

Según explican los investigadores, los sonidos pronunciados y las voces pueden ser identificados porque cada uno produce una única “huella neuronal” en el cerebro de quien los escucha.

Siete personas fueron sometidas a la siguiente prueba: tuvieron que escuchar tres sonidos distintos (en concreto tres vocales), que fueron pronunciados por tres personas diferentes.

Entretanto, la actividad cerebral de los participantes fue registrada mediante una exploración de resonancia magnética funcional (fMRI). La tecnología fMRI mide la respuesta hemodinámica relacionada con la actividad neuronal del cerebro, y es una de las más novedosas técnicas de captación de neuroimágenes.

Con la ayuda del algoritmo de data mining o de minería de datos, los investigadores tradujeron esta actividad cerebral a pratrones únicos que determinaban la identidad de la persona que había pronunciado la vocal, y también la vocal pronunciada.

Se definieron de esta manera los patrones neuronales de la actividad cerebral que se correspondían con las diversas características acústicas de las vibraciones de las cuerdas vocales.

Procesamiento no jerárquico del sonido

Según los investigadores, estos patrones neuronales funcionan como auténticas huellas únicas y específicas: la huella neuronal de un sonido pronunciado no cambia si este sonido es producido por otra persona, mientras que la huella que deja un hablante concreto se mantiene siempre igual, incluso si dicho hablante dice algo distinto.

Este estudio ha revelado, por otro lado, que parte del complejo proceso de decodificación de sonidos tiene lugar en áreas del cerebro que anteriormente habían sido asociadas sólo con los estadios iniciales del procesamiento del sonido.

Los modelos neurocognitivos existentes asumen que los sonidos procesados implican activamente diversas regiones del cerebro, siguiendo una cierta jerarquía: tras un procesamiento simple en la corteza auditiva, un análisis más complejos (por ejemplo del sonido de las palabras) se desarrolla en regiones más especializadas del cerebro.

Sin embargo, los resultados de la presente investigación implican que el procesamiento del sonido es menos jerárquico y se expande más de lo que se pensaba por el misterioso cerebro.

Una de las posibles aplicaciones de estos nuevos conocimientos podría ser la de mejorar sistemas computacionales de reconocimiento de hablantes y de discurso.

Yaiza Martinez

Hacer un comentario

RSS Lo último de Tendencias21

  • Google habría impulsado una IA experimental involucrada en la muerte de un adolescente 21 marzo, 2025
    Plataformas respaldadas por gigantes tecnológicos como Google han introducido chatbots de IA interactivos dirigidos a niños y adolescentes, abriendo fuertes debates sobre su impacto en el desarrollo infantil. En concreto, la aplicación experimental Character.AI ha sido objeto de demandas legales por parte de distintas familias, que alegan que sus hijos fueron expuestos a contenidos perjudiciales […]
    Pablo Javier Piacente / T21
  • Sudáfrica y China logran una conexión cuántica satelital récord de casi 13.000 kilómetros 21 marzo, 2025
    Un equipo internacional de científicos ha establecido una conexión satelital cuántica histórica entre Sudáfrica y China, cubriendo una distancia récord de 12.900 kilómetros. Gracias al fenómeno del entrelazamiento cuántico, esta tecnología garantiza comunicaciones absolutamente seguras frente a cualquier intento de espionaje.
    Redacción T21
  • Los tribunales no reconocen derechos de autor a la Inteligencia Artificial 21 marzo, 2025
    Un tribunal de apelaciones en Estados Unidos ha puesto límites a la creatividad de las máquinas: las obras generadas exclusivamente por inteligencia artificial no pueden ser protegidas por derechos de autor. El fallo reafirma que la ley actual requiere la participación humana para garantizar la protección legal de una obra.
    Redacción T21
  • Microsoft e Inait revolucionan la Inteligencia Artificial con cerebros digitales casi humanos 21 marzo, 2025
    Microsoft ha unido fuerzas con la startup suiza Inait para desarrollar sistemas de IA inspirados en el cerebro humano. Esta colaboración busca crear modelos que no solo aprenden de datos, sino que también razonan como el cerebro humano.
    Redacción T21
  • Musk fija rumbo a Marte: las primeras misiones no tripuladas despegarán en 2026 21 marzo, 2025
    El camino hacia la conquista de Marte ya tiene calendario: SpaceX enviará en 2026 cinco misiones no tripuladas hacia el planeta rojo, destinadas a probar la fiabilidad del sistema Starship en aterrizajes. Si culminan con éxito, las históricas misiones tripuladas podrían despegar en menos de una década.
    Redacción T21
  • Desvelan la primera luz que encendió el Universo y su evolución posterior 21 marzo, 2025
    El Telescopio de Cosmología de Atacama (ACT) ha compilado el mapa más detallado que hemos visto hasta hoy del fondo cósmico de microondas, la tenue luz que impregna el Universo desde solo 380.000 años después del Big Bang y cuyos ecos pueden apreciarse en la actualidad. La imagen obtenida es lo más parecido a la […]
    Redacción T21
  • El telescopio Webb detecta dióxido de carbono en exoplanetas a 130 años luz 21 marzo, 2025
    Un nuevo hallazgo del JWST nos acerca un poco más a la comprensión de los mecanismos de formación de otros sistemas planetarios diferentes al nuestro, además de arrojar luz sobre la composición química de las atmósferas de los exoplanetas, un punto crucial en la búsqueda de alguna forma de vida extraterrestre.
    Pablo Javier Piacente / T21
  • Detectan misteriosas señales de radio provenientes de una estrella muerta y su compañera 21 marzo, 2025
    Los astrónomos han rastreado la fuente de una extraña señal de radio proveniente del espacio profundo, que se repite exactamente cada dos horas. Se trata del ritmo al que chocan los campos magnéticos de un par de estrellas que se mueven en una órbita muy apretada, a unos 1.600 años luz de distancia de la […]
    Pablo Javier Piacente / T21
  • "Microrrayos" en gotitas de agua habrían producido moléculas fundamentales para el surgimiento de la vida 21 marzo, 2025
    La síntesis de moléculas necesarias para la aparición de la vida podría haberse originado por "microrrayos" en gotitas de agua. Según un nuevo estudio, la formación de compuestos orgánicos con enlaces carbono-nitrógeno a partir de moléculas de gas podría haber sido un posible mecanismo para crear los componentes básicos de la vida en la Tierra […]
    Pablo Javier Piacente / T21
  • Descubren una "nueva" variedad de coronavirus en murciélagos sudamericanos 21 marzo, 2025
    Identificado en el estado de Ceará, en Brasil, un nuevo coronavirus comparte similitudes con el virus responsable del síndrome respiratorio de Medio Oriente: durante 2025, una serie de experimentos determinarán su potencial para infectar a los humanos.
    Redacción T21