En un reciente artículo, contamos que científicos japoneses habían desarrollado una red neuronal capaz de leer lo que una persona tiene en su mente y, además, de reflejarlo en una pantalla. Esa red neuronal también interpretó y reprodujo en una pantalla lo que una persona recordaba de las imágenes que había visto.
Ahora, un nuevo estudio llevado a cabo en el Instituto D’Or de Investigación y Educación utilizó una máquina de Resonancia Magnética (MR) para leer las mentes de los participantes y descubrir qué canción estaban escuchando. Si el anterior trabajo consiguió leer lo que una persona tiene en mente (recuerdos, imágenes), este nuevo estudio ha logrado descubrir lo que una persona está oyendo dentro de su mente.
El estudio, publicado en Scientific Reports, contribuye a la mejora de la técnica de lectura mental y abre el camino a nuevas investigaciones sobre la reconstrucción de la imaginación auditiva y el habla interna.
En el ámbito clínico, puede mejorar las interfaces cerebro-ordenador para establecer la comunicación de pacientes con síndrome de enclaustramiento, una lesión en el tallo cerebral a nivel de la protuberancia anular. Una persona con este síndrome está alerta y despierta, pero no puede moverse o comunicarse verbalmente debido a una completa parálisis de casi todos los músculos voluntarios en el cuerpo, excepto por los ojos. El nuevo estudio constituye una esperanza para estas personas.
En esta nueva investigación, seis voluntarios escucharon 40 piezas de música clásica, rock, pop, jazz y otros. Mientras se desarrollaba el experimento, la técnica de resonancia magnética iba registrando la huella que cada canción dejaba en el cerebro de los participantes, según su tonalidad, dinámica, ritmo y timbre.
A continuación recurrieron a una técnica conocida como decodificación cerebral y ofrecieron al ordenador la posibilidad de escoger entre dos opciones para identificar la canción que el voluntario estaba escuchando. La precisión alcanzada por el ordenador fue del 85%.
Traducir pensamientos en canciones
La prueba no terminó ahí. En una nueva fase del experimento, abrieron al ordenador la posibilidad de escoger entre 10 opciones para elegir la canción correcta. Con esta amplitud de posibilidades, el ordenador identificó correctamente la canción escuchada por el voluntario el 74% de las veces.
Según explican los investigadores en un comunicado, en el futuro, los estudios sobre decodificación cerebral y aprendizaje automático crearán posibilidades de comunicación independientemente de cualquier tipo de lenguaje escrito o hablado.
«Las máquinas podrán traducir nuestros pensamientos musicales en canciones», explica Sebastian Hoefle, uno de los investigadores. El estudio es el resultado de una colaboración entre investigadores brasileños y colegas de Alemania, Finlandia e India.
Hoefle añade que las investigaciones de decodificación del cerebro proporcionan alternativas para comprender el funcionamiento neuronal e interactuar con él utilizando inteligencia artificial. En el futuro, espera encontrar respuestas para preguntas como «¿Qué características musicales hacen que algunas personas amen una canción mientras que otras no? ¿Nuestro cerebro está adaptado para preferir un tipo específico de música?
Referencia
Identifying musical pieces from fMRI data using encoding and decoding models. Scientific Reports, volume 8, Article number:2266 (2018). doi:10.1038/s41598-018-20732-3
Hacer un comentario