Tendencias21

Un dispositivo traduce las imágenes en sonido para ayudar a los ciegos a ver

Investigadores del Instituto de Tecnología de California han descubierto que las conexiones neuronales intrínsecas se pueden emplear en dispositivos de asistencia para ayudar a personas ciegas a detectar su entorno sin necesidad de una intensa concentración u horas de entrenamiento. Utilizando unas gafas conectadas a una cámara, un algoritmo escanea cada imagen y genera un sonido con una frecuencia y volumen que varía en función del brillo y la ubicación vertical de los píxeles. Por Patricia Pérez.

Un dispositivo traduce las imágenes en sonido para ayudar a los ciegos a ver

Las personas ciegas a menudo sustituyen el sonido por la vista, y algunas pueden incluso recurrir a la ecolocalización, lo que les permite localizar y discriminar objetos por las ondas acústicas. Pero resulta que el sonido puede también adaptarse para transmitir información visual. Unos investigadores del Instituto de Tecnología de California (Caltech), en Estados Unidos, están aprovechando ese descubrimiento para ayudar a personas ciegas.

Para ello han desarrollado unas gafas inteligentes que convierten las imágenes en sonidos que los usuarios pueden entender de manera intuitiva y sin necesidad de entrenamiento. Según recoge un artículo publicado en la revista online NewScientist, el dispositivo llamado vOICe (OCI significa «¡Oh, I See!»), consta de un par de gafas oscuras con una pequeña cámara que se conecta a un ordenador. El sistema se basa en un algoritmo del mismo nombre desarrollado en 1992 por el ingeniero holandés Peter Meijer.

La herramienta es un ejemplo de cómo se integra la información percibida por diferentes sentidos para componer un todo. Así, por ejemplo, en una cocina, el cerebro procesa el sonido del aceite que chisporrotea, el aroma de las especias, la estética visual de los alimentos dispuestos en el plato, o el tacto y el gusto de tomar un bocado. Aunque todas estas señales pueden parecer distintas e independientes, en realidad interactúan y se integran dentro de la red cerebral de neuronas sensoriales.

Precisamente son esas conexiones neuronales preexistentes las que proporcionan un punto de partida importante para formar a personas con discapacidad visual en el uso de este tipo de dispositivos que les ayudarán a ver.

Una persona vidente simplemente tiene que abrir los ojos y el cerebro procesa automáticamente las imágenes y la información para que se produzca una interacción perfecta con su entorno. Sin embargo, los dispositivos actuales para ciegos y deficientes visuales no son tan automáticos o intuitivos, pues en general requieren concentración y la atención completa del usuario para interpretar la información sobre lo que le rodea.

Esta nueva perspectiva multisensorial podría facilitar tareas que antes requerían mucho tiempo, permitiendo a los invidentes la adquisición de una nueva funcionalidad sensorial similar a la visión.

Un dispositivo traduce las imágenes en sonido para ayudar a los ciegos a ver

Estimular la corteza visual

«La mayoría de libros sobre neurociencia sólo dedican unas páginas a la interacción multisensorial, mientras el 99 por ciento de nuestra vida cotidiana depende de este proceso», lamenta Shinsuke Shimojo, investigador principal del estudio, en un comunicado de Caltech.

A modo de ejemplo, explica que si una persona está hablando por teléfono con alguien que conoce muy bien y está llorando, aunque sólo pueda escuchar el sonido, es capaz de visualizar sus lágrimas en la cara. De esta forma demuestra que la causalidad sensorial no es unidireccional, pues la visión puede influir en el sonido, y viceversa.

Junto a su compañera Noelle Stiles han explotado este proceso para estimular la corteza visual con señales auditivas que codifican la información sobre el entorno. Para ello han utilizado asociaciones que cualquiera conoce, como relacionar un tono alto a lugares elevados en el espacio o sonidos ruidosos con luces brillantes.

El algoritmo de vOICe escanea cada imagen de la cámara de izquierda a derecha, y para cada columna de píxeles genera un sonido con una frecuencia y volumen que depende de la ubicación vertical y el brillo de los píxeles. De esta forma, muchos píxeles brillantes en la parte superior de una columna se traducirían en un sonido de alta frecuencia, mientras que píxeles oscuros en la parte baja darían lugar a un sonido más tranquilo, en un tono más bajo. Finalmente, unos auriculares envían el sonido procesado al oído del usuario, permitiéndole asociar diferentes sonidos a objetos y elementos de su entorno.

Los investigadores realizaron pruebas tanto con personas videntes como invidentes. A los primeros se les pidió emparejar imágenes (rayas, manchas, texturas) con sonidos sin ningún tipo de formación ni instrucciones previas, mientras que los invidentes debían tocar texturas y combinarlas con sonidos. Ambos grupos mostraron una capacidad intuitiva para relacionar texturas e imágenes con los sonidos asociados. Sorprendentemente, el rendimiento del grupo sin entrenamiento no difirió mucho de los preparados.

Conexiones preexistentes

El estudio, descrito en un artículo publicado en la revista especializada Scientific Reports, detectó que el uso de vOICe para ver texturas “ilustra conexiones neuronales intuitivas entre dichas texturas y los sonidos, lo que implica que hay conexiones preexistentes”, asegura Shimojo. Un ejemplo común de estas conexiones es la sinestesia, por la cual la activación de un sentido conduce a una experiencia sensorial diferente involuntaria, como ver un determinado color al oír un sonido específico.

Aunque aún no sabrían determinar lo que hace cada región sensorial del cerebro cuando procesa estas señales, tienen una idea aproximada. Para comprenderlo mejor están utilizando datos funcionales de resonancias magnéticas para analizar la red neuronal.

Más allá de sus implicaciones prácticas, la investigación plantea una importante pregunta filosófica: ¿Qué es ver? «¿Es ver lo que pasa cuando abres los ojos? No, porque eso no es suficiente si la retina está dañada ¿Es cuando se activa la corteza visual? Nuestra investigación ha demostrado que la corteza visual puede activarse por el sonido, lo que indica que realmente no necesitamos los ojos para ver”, se cuestiona Shimojo. Sea una cosa u otra, lo cierto es que con este tipo de aplicaciones se ofrece a los invidentes una experiencia visual a través de otros sentidos.

RedacciónT21

Hacer un comentario

RSS Lo último de Tendencias21

  • Un enorme desierto en Asia se está transformando en un vergel gracias al cambio climático 1 junio, 2025
    Los hallazgos de un nuevo estudio muestran que la ecologización del desierto de Thar ha sido impulsada principalmente por más lluvias durante las temporadas de monzones de verano, un aumento del 64% en las precipitaciones en general por el cambio climático y, en segundo lugar, por la infraestructura de riego que lleva el agua subterránea […]
    Pablo Javier Piacente / T21
  • La NASA está observando una enorme y creciente anomalía en el campo magnético de la Tierra 31 mayo, 2025
    La NASA está haciendo un seguimiento detallado de la "abolladura" o "bache" en el campo magnético terrestre descubierta en 1961, que crece rápidamente y podría ser el preludio de una inversión geomagnética: ocurre cuando los polos magnéticos norte y sur intercambian posiciones.
    EDUARDO MARTÍNEZ DE LA FE/T21
  • Los árboles pueden predecir las erupciones volcánicas 30 mayo, 2025
    La NASA, en colaboración con el Instituto Smithsonian, en Estados Unidos, está desarrollando nuevos métodos para anticipar erupciones volcánicas. Cuando el magma asciende a la superficie libera dióxido de carbono, y los árboles cercanos que absorben ese gas se vuelven más verdes y frondosos. Satélites como Landsat 8 vigilan la vegetación en zonas volcánicas, captando […]
    Pablo Javier Piacente / T21
  • Los delfines se ponen nombres "en clave" 30 mayo, 2025
    Un nuevo estudio ha identificado que los delfines no solo se dan nombres para reconocerse, sino que además estas denominaciones podrían esconder información secreta o "en clave", que estaría ligada a los sistemas sociales que sustentan el equilibrio de sus comunidades.
    Pablo Javier Piacente / T21
  • Sorprenden a una “estrella araña” devorando a su compañera 30 mayo, 2025
    Una colaboración internacional de astrónomos ha identificado un extraño sistema estelar en el que un púlsar conocido como “estrella araña” devora material de su estrella compañera, en un hallazgo que representa un eslabón perdido en la evolución de sistemas binarios compactos. 
    Redacción T21
  • Planetas a la deriva: el origen caótico de los mundos lejanos respalda la existencia del Planeta Nueve 30 mayo, 2025
    En los márgenes más remotos de los sistemas planetarios, gigantes invisibles orbitan en silencio. Un nuevo modelo sugiere que estos mundos distantes son productos inevitables del caos primordial que reina cuando las estrellas y sus planetas compiten por sobrevivir en los abarrotados viveros estelares. ¿Podría nuestro propio Sistema Solar albergar uno de estos esquivos colosos?
    EDUARDO MARTÍNEZ DE LA FE/T21
  • Unas gafas de realidad mixta devuelven "el mundo entero" a las personas con pérdida parcial de la visión 29 mayo, 2025
    Una técnica desarrollada por oftalmólogos e informáticos canadienses devuelve la visión perdida a personas afectadas por una lesión cerebral, que han sufrido la reducción de gran parte de su campo visual. Las gafas de realidad mixta registran y "proyectan" ese sector que las personas no pueden ver con sus ojos.
    Pablo Javier Piacente / T21
  • Primer combate de kickboxing con robots humanoides 29 mayo, 2025
    En Hangzhou, China, se celebró el 25 de mayo de 2025 el primer torneo mundial de kickboxing entre robots humanoides, un espectáculo que, según los organizadores, marcó “un momento histórico en la integración de la Inteligencia Artificial (IA) en los deportes de combate”. 
    Pablo Javier Piacente / T21
  • Primera evidencia directa del pensamiento simbólico neandertal 29 mayo, 2025
    El meticuloso análisis de un canto rodado del Paleolítico Medio aporta una prueba tangible del comportamiento simbólico y la capacidad de abstracción de los últimos neandertales que habitaron la Península Ibérica, pudiendo representar una de las primeras simbolizaciones faciales conocidas.
    EDUARDO MARTÍNEZ DE LA FE/T21
  • Un "cóctel antienvejecimiento" alarga un 30% la vida en roedores 29 mayo, 2025
    Los científicos han probado un cóctel de medicamentos antienvejecimiento en ratones y descubrieron que extendía la vida útil de los animales en alrededor del 30 %. Los roedores también se mantuvieron más saludables por más tiempo, con menos inflamación crónica y retraso en el inicio de enfermedades como cáncer.
    Redacción T21