Tendencias21

Crean el primer audífono controlado por el cerebro

Ingenieros norteamericanos han desarrollado un audífono que controla las ondas cerebrales del usuario para detectar y amplificar una voz entre muchas. Potentes algoritmos de IA y redes neuronales consiguen la proeza.

Nuestros cerebros tienen una notable habilidad para distinguir voces individuales en un ambiente ruidoso, como una cafetería abarrotada o una concurrida calle de ciudad. Esto es algo que incluso los audífonos más avanzados luchan por conseguir.

Ahora, ingenieros de la Universidad de Columbia han desarrollado una tecnología experimental que imita la aptitud natural del cerebro para detectar y amplificar una voz entre muchas.

Alimentado por la inteligencia artificial, se trata de un audífono controlado por el cerebro que actúa como un filtro automático, discrimina las ondas cerebrales del usuario y aumenta la voz de la persona que quiere escuchar.

Aunque aún se encuentra en las primeras etapas de desarrollo, esta tecnología constituye un paso importante hacia mejores audífonos que permitan a los usuarios conversar con las personas que los rodean de manera transparente y eficiente. Los resultados se publican  en Science Advances .

“El área del cerebro que procesa el sonido es extraordinariamente sensible y poderosa; puede amplificar una voz sobre otras, aparentemente sin esfuerzo», explica Nima Mesgarani, investigador del Mortimer B. Zuckerman Mind Brain Behavior Institute de Columbia, y autor principal del artículo, en un comunicado.

«Al crear un dispositivo que aprovecha el poder del cerebro, esperamos que nuestro trabajo conduzca a mejoras tecnológicas que permitan a los cientos de millones de personas con discapacidad auditiva en todo el mundo comunicarse tan fácilmente como lo hacen sus amigos y familiares».

Algoritmo de separación de voz

La tecnología básica de este trabajo es un algoritmo de separación de voz que puede reconocer y decodificar una voz, cualquier voz, desde el principio.

Los audífonos modernos son excelentes para amplificar el habla y suprimir ciertos tipos de ruido de fondo, como el tráfico. Sin embargo, tienen problemas para aumentar el volumen de una voz individual sobre otras.

El audífono controlado por el cerebro del equipo de Columbia es diferente. En lugar de depender únicamente de amplificadores de sonido externos, como los micrófonos, también controla las ondas cerebrales del oyente.

«Anteriormente, habíamos descubierto que cuando dos personas hablan entre sí, las ondas cerebrales del hablante comienzan a parecerse a las ondas cerebrales del oyente», añade Mesgarani.

Usando este conocimiento, el equipo combinó potentes algoritmos de separación del habla con redes neuronales, modelos matemáticos complejos que imitan las capacidades computacionales del cerebro.

Así crearon un sistema que primero separa las voces de los oradores individuales de un grupo, y luego compara las voces de cada orador con las ondas cerebrales de la persona que escucha. La voz cuyo patrón de voz coincide más estrechamente con las ondas cerebrales del oyente se amplifica sobre el resto.

Probado con éxito

El prototipo ha sido probado con éxito con pacientes de epilepsia, cuyas ondas cerebrales fueron observadas en tiempo real mediante electrodos implantados en el cerebro, mientras escuchaban a diferentes personas a la vez.

El algoritmo rastreó la atención de los pacientes mientras escuchaban a diferentes personas con las que no habían hablado con anterioridad. Cuando un paciente se concentró en un orador, el sistema amplificó automáticamente esa voz. Y cuando su atención cambió a otro conversador diferente, los niveles de volumen cambiaron para reflejar ese cambio.

Los investigadores ahora están investigando ahora cómo transformar este prototipo en un dispositivo no invasivo que se pueda colocar externamente en el cuero cabelludo o alrededor de la oreja. También esperan mejorar y refinar aún más el algoritmo para que pueda funcionar en una gama más amplia de entornos.

«Hasta ahora, solo lo hemos probado en un ambiente interior», señala  Mesgarani. «Pero queremos asegurarnos de que pueda funcionar igual de bien en una calle concurrida de la ciudad o en un restaurante ruidoso, para que donde sea que vayan los usuarios, puedan experimentar plenamente el mundo y las personas que los rodean», concluye.

Referencia

Speaker-independent auditory attention decoding without access to clean speech sources. Cong Han et al. Science Advances,  15 May 2019: Vol. 5, no. 5, eaav6134. DOI:10.1126/sciadv.aav6134

RedacciónT21

Hacer un comentario

RSS Lo último de Tendencias21

  • El asteroide "asesino de ciudades" se alejará en 2032, pero podría volver en cualquier momento, e incluso acompañado 26 marzo, 2025
    2024 YR4 se perderá en 2032 lejos de la Tierra, pero al acercarse será expulsado de su órbita y ya no volverá cada cuatro años. Sin embargo, a pesar de esta desviación su órbita aún cruzará la nuestra, pero no con tanta frecuencia. Podría volver en 2052, y será crucial seguir observándolo junto a otros […]
    Pablo Javier Piacente / T21
  • ¿Los perros están ocupando el lugar de los niños en las nuevas familias? 26 marzo, 2025
    En algunos países, el número de perros se ha incrementado tanto que ahora supera el número de niños. Aunque la importancia emocional de los perros, gatos y otras mascotas está aumentando claramente en todo el planeta y la natalidad humana desciende, los científicos están intentando determinar si las personas optan por mantener a los perros […]
    Pablo Javier Piacente / T21
  • La UE revoluciona la preparación ante emergencias: Kit de Supervivencia 2025 26 marzo, 2025
    La Unión Europea ha lanzado una revolucionaria estrategia científico-técnica de preparación ciudadana para 2025. El kit de supervivencia obligatorio no solo busca salvar vidas, sino transformar las respuestas ante las crisis. Descubre cómo esta iniciativa podría cambiar la resiliencia comunitaria y qué implica para el futuro de Europa.
    Redacción T21
  • Samsung Haean: Las gafas inteligentes que revolucionarán la realidad aumentada en 2025 26 marzo, 2025
    ¿Te imaginas llevar un par de gafas que traduzcan idiomas en tiempo real, te guíen por la ciudad y hasta te ayuden a realizar pagos? Samsung está a punto de hacerlo posible con Haean, un revolucionario dispositivo que podría llegar al mercado antes de finalizar 2025.
    Redacción T21
  • Las cámaras con IA podrían lograr que los vehículos autónomos se masifiquen 26 marzo, 2025
    Una nueva tecnología de cámaras impulsadas por Inteligencia Artificial (IA) permitirá a los vehículos sin conductor reaccionar más rápido que un velocista olímpico, ver en 3D y hacer que la conducción autónoma sea más segura y asequible.
    Redacción T21
  • Filtración en Signal: ¿Un error humano o una negligencia tecnológica? 26 marzo, 2025
    La reciente filtración de conversaciones en Signal en el seno de la administración Trump expone los riesgos de usar herramientas de consumo para gestionar información clasificada. Esta crisis pone el foco en los protocolos de seguridad, la gestión de datos y la Ley de Registros Federales.
    Redacción T21
  • Descubren una firme y alarmante relación entre las bebidas azucaradas y el cáncer 25 marzo, 2025
    Un nuevo estudio ha hallado un vínculo alarmante entre las bebidas azucaradas y el cáncer oral: los científicos de la Universidad de Washington descubrieron que las mujeres que beben al menos un refresco azucarado por día parecen tener aproximadamente cinco veces más probabilidades de contraer cáncer de cavidad oral (OCC) que las mujeres que evitan […]
    Pablo Javier Piacente / T21
  • Elon Musk y Neuralink ya están patentando una aplicación de "telepatía" 25 marzo, 2025
    En los últimos meses, Elon Musk y su equipo en Neuralink se han referido a las capacidades del chip de interfaz cerebral de la compañía, The Link, como “Telepatía”. Neuralink incluso ha presentado una solicitud de marca comercial ante los organismos oficiales estadounidenses para reservar los nombres “Telepatía” y “Telekinesis”. ¿Ya tiene Neuralink el secreto […]
    Pablo Javier Piacente / T21
  • Desarrollan la pantalla LED más pequeña del mundo: tiene el tamaño de un virus 25 marzo, 2025
    Investigadores de la Universidad de Zhejiang en Hangzhou, China, en colaboración con la Universidad de Cambridge, han creado una pantalla LED con píxeles que miden solo 90 nanómetros de ancho, un tamaño comparable al de los virus típicos. 
    Redacción T21
  • La revolución de la inteligencia artificial: ¿la era del fin del trabajo humano? 25 marzo, 2025
    La IA ha cruzado un umbral crítico: pronto podríamos ver sistemas autónomos capaces de realizar tareas humanas complejas, de semanas de duración, realizadas en apenas horas, cambiando para siempre el mercado laboral y la sociedad.
    Redacción T21