Tendencias21

Un dispositivo traduce las imágenes en sonido para ayudar a los ciegos a ver

Investigadores del Instituto de Tecnología de California han descubierto que las conexiones neuronales intrínsecas se pueden emplear en dispositivos de asistencia para ayudar a personas ciegas a detectar su entorno sin necesidad de una intensa concentración u horas de entrenamiento. Utilizando unas gafas conectadas a una cámara, un algoritmo escanea cada imagen y genera un sonido con una frecuencia y volumen que varía en función del brillo y la ubicación vertical de los píxeles. Por Patricia Pérez.

Un dispositivo traduce las imágenes en sonido para ayudar a los ciegos a ver

Las personas ciegas a menudo sustituyen el sonido por la vista, y algunas pueden incluso recurrir a la ecolocalización, lo que les permite localizar y discriminar objetos por las ondas acústicas. Pero resulta que el sonido puede también adaptarse para transmitir información visual. Unos investigadores del Instituto de Tecnología de California (Caltech), en Estados Unidos, están aprovechando ese descubrimiento para ayudar a personas ciegas.

Para ello han desarrollado unas gafas inteligentes que convierten las imágenes en sonidos que los usuarios pueden entender de manera intuitiva y sin necesidad de entrenamiento. Según recoge un artículo publicado en la revista online NewScientist, el dispositivo llamado vOICe (OCI significa «¡Oh, I See!»), consta de un par de gafas oscuras con una pequeña cámara que se conecta a un ordenador. El sistema se basa en un algoritmo del mismo nombre desarrollado en 1992 por el ingeniero holandés Peter Meijer.

La herramienta es un ejemplo de cómo se integra la información percibida por diferentes sentidos para componer un todo. Así, por ejemplo, en una cocina, el cerebro procesa el sonido del aceite que chisporrotea, el aroma de las especias, la estética visual de los alimentos dispuestos en el plato, o el tacto y el gusto de tomar un bocado. Aunque todas estas señales pueden parecer distintas e independientes, en realidad interactúan y se integran dentro de la red cerebral de neuronas sensoriales.

Precisamente son esas conexiones neuronales preexistentes las que proporcionan un punto de partida importante para formar a personas con discapacidad visual en el uso de este tipo de dispositivos que les ayudarán a ver.

Una persona vidente simplemente tiene que abrir los ojos y el cerebro procesa automáticamente las imágenes y la información para que se produzca una interacción perfecta con su entorno. Sin embargo, los dispositivos actuales para ciegos y deficientes visuales no son tan automáticos o intuitivos, pues en general requieren concentración y la atención completa del usuario para interpretar la información sobre lo que le rodea.

Esta nueva perspectiva multisensorial podría facilitar tareas que antes requerían mucho tiempo, permitiendo a los invidentes la adquisición de una nueva funcionalidad sensorial similar a la visión.

Un dispositivo traduce las imágenes en sonido para ayudar a los ciegos a ver

Estimular la corteza visual

«La mayoría de libros sobre neurociencia sólo dedican unas páginas a la interacción multisensorial, mientras el 99 por ciento de nuestra vida cotidiana depende de este proceso», lamenta Shinsuke Shimojo, investigador principal del estudio, en un comunicado de Caltech.

A modo de ejemplo, explica que si una persona está hablando por teléfono con alguien que conoce muy bien y está llorando, aunque sólo pueda escuchar el sonido, es capaz de visualizar sus lágrimas en la cara. De esta forma demuestra que la causalidad sensorial no es unidireccional, pues la visión puede influir en el sonido, y viceversa.

Junto a su compañera Noelle Stiles han explotado este proceso para estimular la corteza visual con señales auditivas que codifican la información sobre el entorno. Para ello han utilizado asociaciones que cualquiera conoce, como relacionar un tono alto a lugares elevados en el espacio o sonidos ruidosos con luces brillantes.

El algoritmo de vOICe escanea cada imagen de la cámara de izquierda a derecha, y para cada columna de píxeles genera un sonido con una frecuencia y volumen que depende de la ubicación vertical y el brillo de los píxeles. De esta forma, muchos píxeles brillantes en la parte superior de una columna se traducirían en un sonido de alta frecuencia, mientras que píxeles oscuros en la parte baja darían lugar a un sonido más tranquilo, en un tono más bajo. Finalmente, unos auriculares envían el sonido procesado al oído del usuario, permitiéndole asociar diferentes sonidos a objetos y elementos de su entorno.

Los investigadores realizaron pruebas tanto con personas videntes como invidentes. A los primeros se les pidió emparejar imágenes (rayas, manchas, texturas) con sonidos sin ningún tipo de formación ni instrucciones previas, mientras que los invidentes debían tocar texturas y combinarlas con sonidos. Ambos grupos mostraron una capacidad intuitiva para relacionar texturas e imágenes con los sonidos asociados. Sorprendentemente, el rendimiento del grupo sin entrenamiento no difirió mucho de los preparados.

Conexiones preexistentes

El estudio, descrito en un artículo publicado en la revista especializada Scientific Reports, detectó que el uso de vOICe para ver texturas “ilustra conexiones neuronales intuitivas entre dichas texturas y los sonidos, lo que implica que hay conexiones preexistentes”, asegura Shimojo. Un ejemplo común de estas conexiones es la sinestesia, por la cual la activación de un sentido conduce a una experiencia sensorial diferente involuntaria, como ver un determinado color al oír un sonido específico.

Aunque aún no sabrían determinar lo que hace cada región sensorial del cerebro cuando procesa estas señales, tienen una idea aproximada. Para comprenderlo mejor están utilizando datos funcionales de resonancias magnéticas para analizar la red neuronal.

Más allá de sus implicaciones prácticas, la investigación plantea una importante pregunta filosófica: ¿Qué es ver? «¿Es ver lo que pasa cuando abres los ojos? No, porque eso no es suficiente si la retina está dañada ¿Es cuando se activa la corteza visual? Nuestra investigación ha demostrado que la corteza visual puede activarse por el sonido, lo que indica que realmente no necesitamos los ojos para ver”, se cuestiona Shimojo. Sea una cosa u otra, lo cierto es que con este tipo de aplicaciones se ofrece a los invidentes una experiencia visual a través de otros sentidos.

RedacciónT21

Hacer un comentario

RSS Lo último de Tendencias21

  • Ya es posible transmitir el tacto a través de Internet 26 junio, 2024
    Un nuevo estándar para la compresión y transmisión del sentido del tacto mediante Internet sienta las bases para la telecirugía, la teleconducción y nuevas experiencias de juego en línea, entre otras aplicaciones. El flamante estándar HCTI (Haptic Codecs for the Tactile Internet) es para el “tacto digital” lo que son JPEG, MP3 y MPEG para […]
    Pablo Javier Piacente
  • Las primeras muestras de la cara oculta de la Luna ya están en la Tierra 26 junio, 2024
    La cápsula de reingreso de la sonda Chang'e-6 de China, que transporta hasta dos kilogramos de materiales extraídos y perforados de la cuenca más antigua de la Luna ubicada en su lado oscuro, aterrizó este martes 25 de junio en la región de Mongolia Interior y fue rápidamente recuperada, según informó la Administración Nacional del […]
    Pablo Javier Piacente
  • La Tierra tendrá dos soles dentro de 1,3 millones de años y durante 60.000 años 26 junio, 2024
    Dentro de 1,3 millones de años, la Tierra tendrá una especie de segundo sol porque la estrella Gliese 710 se acercará a 1,1 años luz de la Tierra y la veríamos del mismo tamaño que Júpiter. Lo malo es que esa alteración cósmica puede provocar un episodio en nuestro planeta como el que acabó con […]
    Eduardo Martínez de la Fe
  • China descubre grafeno natural en la Luna 25 junio, 2024
    Investigadores chinos han descubierto recientemente grafeno natural de escasas capas por primera vez en la Luna, a partir de las muestras traídas a la Tierra por la sonda Chang'e 5. El hallazgo proporciona nuevos conocimientos sobre las actividades geológicas, la historia evolutiva y las características ambientales de la Luna.
    Pablo Javier Piacente
  • Los incendios forestales extremos se duplicaron en los últimos 20 años en todo el planeta 25 junio, 2024
    Una nueva investigación concluye que la frecuencia e intensidad de los incendios forestales extremos se ha más que duplicado en todo el mundo en las últimas dos décadas, debido al calentamiento global antropogénico y otros factores relacionados. Se trata de la primera ocasión en la cual los científicos pudieron trazar una tendencia global para los […]
    Pablo Javier Piacente
  • Detectado en el Mediterráneo el neutrino más energético del universo 25 junio, 2024
    El neutrino más potente jamás observado ha dejado su huella en las profundidades del Mediterráneo, aunque todavía se desconoce de qué rincón del universo procede. Los neutrinos cosmogénicos son los mensajeros de algunos de los eventos más cataclísmicos del cosmos.
    Eduardo Martínez de la Fe
  • La IA identifica seis formas diferentes de depresión 24 junio, 2024
    Los científicos han identificado seis formas biológicamente distintas de depresión gracias a la aplicación de la Inteligencia Artificial (IA) en estudios cerebrales. El hallazgo podría explicar por qué algunas personas no responden a los tratamientos tradicionales para la afección, como los antidepresivos y la terapia psicológica.
    Pablo Javier Piacente
  • La NASA pondrá en órbita una estrella artificial que revolucionará el estudio del Universo 24 junio, 2024
    La NASA encarará un ambicioso proyecto para colocar en órbita una estrella artificial: permitirá la calibración de telescopios a niveles previamente inalcanzables. El proyecto tiene como objetivo mejorar significativamente las mediciones de la luminosidad estelar y abordar varios otros desafíos que dificultan la astrofísica moderna.
    Pablo Javier Piacente
  • Los macacos nos enseñan cómo sobrevivir a un desastre natural 24 junio, 2024
    Los macacos de la isla caribeña de Puerto Rico se volvieron más tolerantes y menos agresivos después del huracán María, que los obligó a compartir la sombra de los árboles para sobrevivir al intenso calor.
    Redacción T21
  • Extrañas formas de vida se ocultan en antiguas cuevas de lava de Hawai 23 junio, 2024
    Científicos estadounidenses han logrado identificar una gran diversidad de especies microbianas únicas, que se han desarrollado en cuevas geotérmicas, tubos de lava y fumarolas volcánicas de la isla de Hawái. Estas estructuras subterráneas se formaron hace entre 65 y 800 años y reciben poca o ninguna luz solar, en ambientes similares a los que pueden encontrarse […]
    Pablo Javier Piacente