Tendencias21

Un dispositivo traduce las imágenes en sonido para ayudar a los ciegos a ver

Investigadores del Instituto de Tecnología de California han descubierto que las conexiones neuronales intrínsecas se pueden emplear en dispositivos de asistencia para ayudar a personas ciegas a detectar su entorno sin necesidad de una intensa concentración u horas de entrenamiento. Utilizando unas gafas conectadas a una cámara, un algoritmo escanea cada imagen y genera un sonido con una frecuencia y volumen que varía en función del brillo y la ubicación vertical de los píxeles. Por Patricia Pérez.

Un dispositivo traduce las imágenes en sonido para ayudar a los ciegos a ver

Las personas ciegas a menudo sustituyen el sonido por la vista, y algunas pueden incluso recurrir a la ecolocalización, lo que les permite localizar y discriminar objetos por las ondas acústicas. Pero resulta que el sonido puede también adaptarse para transmitir información visual. Unos investigadores del Instituto de Tecnología de California (Caltech), en Estados Unidos, están aprovechando ese descubrimiento para ayudar a personas ciegas.

Para ello han desarrollado unas gafas inteligentes que convierten las imágenes en sonidos que los usuarios pueden entender de manera intuitiva y sin necesidad de entrenamiento. Según recoge un artículo publicado en la revista online NewScientist, el dispositivo llamado vOICe (OCI significa «¡Oh, I See!»), consta de un par de gafas oscuras con una pequeña cámara que se conecta a un ordenador. El sistema se basa en un algoritmo del mismo nombre desarrollado en 1992 por el ingeniero holandés Peter Meijer.

La herramienta es un ejemplo de cómo se integra la información percibida por diferentes sentidos para componer un todo. Así, por ejemplo, en una cocina, el cerebro procesa el sonido del aceite que chisporrotea, el aroma de las especias, la estética visual de los alimentos dispuestos en el plato, o el tacto y el gusto de tomar un bocado. Aunque todas estas señales pueden parecer distintas e independientes, en realidad interactúan y se integran dentro de la red cerebral de neuronas sensoriales.

Precisamente son esas conexiones neuronales preexistentes las que proporcionan un punto de partida importante para formar a personas con discapacidad visual en el uso de este tipo de dispositivos que les ayudarán a ver.

Una persona vidente simplemente tiene que abrir los ojos y el cerebro procesa automáticamente las imágenes y la información para que se produzca una interacción perfecta con su entorno. Sin embargo, los dispositivos actuales para ciegos y deficientes visuales no son tan automáticos o intuitivos, pues en general requieren concentración y la atención completa del usuario para interpretar la información sobre lo que le rodea.

Esta nueva perspectiva multisensorial podría facilitar tareas que antes requerían mucho tiempo, permitiendo a los invidentes la adquisición de una nueva funcionalidad sensorial similar a la visión.

Un dispositivo traduce las imágenes en sonido para ayudar a los ciegos a ver

Estimular la corteza visual

«La mayoría de libros sobre neurociencia sólo dedican unas páginas a la interacción multisensorial, mientras el 99 por ciento de nuestra vida cotidiana depende de este proceso», lamenta Shinsuke Shimojo, investigador principal del estudio, en un comunicado de Caltech.

A modo de ejemplo, explica que si una persona está hablando por teléfono con alguien que conoce muy bien y está llorando, aunque sólo pueda escuchar el sonido, es capaz de visualizar sus lágrimas en la cara. De esta forma demuestra que la causalidad sensorial no es unidireccional, pues la visión puede influir en el sonido, y viceversa.

Junto a su compañera Noelle Stiles han explotado este proceso para estimular la corteza visual con señales auditivas que codifican la información sobre el entorno. Para ello han utilizado asociaciones que cualquiera conoce, como relacionar un tono alto a lugares elevados en el espacio o sonidos ruidosos con luces brillantes.

El algoritmo de vOICe escanea cada imagen de la cámara de izquierda a derecha, y para cada columna de píxeles genera un sonido con una frecuencia y volumen que depende de la ubicación vertical y el brillo de los píxeles. De esta forma, muchos píxeles brillantes en la parte superior de una columna se traducirían en un sonido de alta frecuencia, mientras que píxeles oscuros en la parte baja darían lugar a un sonido más tranquilo, en un tono más bajo. Finalmente, unos auriculares envían el sonido procesado al oído del usuario, permitiéndole asociar diferentes sonidos a objetos y elementos de su entorno.

Los investigadores realizaron pruebas tanto con personas videntes como invidentes. A los primeros se les pidió emparejar imágenes (rayas, manchas, texturas) con sonidos sin ningún tipo de formación ni instrucciones previas, mientras que los invidentes debían tocar texturas y combinarlas con sonidos. Ambos grupos mostraron una capacidad intuitiva para relacionar texturas e imágenes con los sonidos asociados. Sorprendentemente, el rendimiento del grupo sin entrenamiento no difirió mucho de los preparados.

Conexiones preexistentes

El estudio, descrito en un artículo publicado en la revista especializada Scientific Reports, detectó que el uso de vOICe para ver texturas “ilustra conexiones neuronales intuitivas entre dichas texturas y los sonidos, lo que implica que hay conexiones preexistentes”, asegura Shimojo. Un ejemplo común de estas conexiones es la sinestesia, por la cual la activación de un sentido conduce a una experiencia sensorial diferente involuntaria, como ver un determinado color al oír un sonido específico.

Aunque aún no sabrían determinar lo que hace cada región sensorial del cerebro cuando procesa estas señales, tienen una idea aproximada. Para comprenderlo mejor están utilizando datos funcionales de resonancias magnéticas para analizar la red neuronal.

Más allá de sus implicaciones prácticas, la investigación plantea una importante pregunta filosófica: ¿Qué es ver? «¿Es ver lo que pasa cuando abres los ojos? No, porque eso no es suficiente si la retina está dañada ¿Es cuando se activa la corteza visual? Nuestra investigación ha demostrado que la corteza visual puede activarse por el sonido, lo que indica que realmente no necesitamos los ojos para ver”, se cuestiona Shimojo. Sea una cosa u otra, lo cierto es que con este tipo de aplicaciones se ofrece a los invidentes una experiencia visual a través de otros sentidos.

RedacciónT21

Hacer un comentario

RSS Lo último de Tendencias21

  • Descubren cómo Plutón consiguió su corazón 16 abril, 2024
    El misterio de cómo Plutón consiguió una característica gigante en forma de corazón en su superficie finalmente ha sido resuelto: los científicos lograron reproducir con éxito la forma inusual con simulaciones numéricas, atribuyéndola a un impacto gigante y lento en ángulo oblicuo. Se trató de una colisión con un cuerpo planetario de unos 700 kilómetros […]
    Pablo Javier Piacente
  • La vida podría existir desde los inicios del Universo 16 abril, 2024
    El físico Avi Loeb sostiene en un reciente artículo que los elementos para el desarrollo de la vida tal como la conocemos podrían estar presentes en el cosmos desde la formación de las primeras estrellas, unos 100 millones de años después del Big Bang. También postula que esta hipótesis podría comprobarse si la misión Dragonfly […]
    Pablo Javier Piacente
  • Crean un acelerador de partículas en miniatura con aplicaciones médicas 16 abril, 2024
    Investigadores alemanes han desarrollado un acelerador de electrones que mide poco menos de medio milímetro de largo y 0,2 micrómetros de ancho, es decir, menos de una milésima de milímetro. Tiene aplicaciones en la investigación básica y permitirá crear nuevas herramientas de radioterapia. Entrevista con sus protagonistas, Peter Hommelhoff y Stefanie Kraus.
    Oscar William Murzewitz (Welt der Physik)/T21
  • Revelan la primera molécula fractal en la naturaleza 15 abril, 2024
    Los científicos han descubierto una molécula en la naturaleza que sigue un patrón geométrico de autosimilitud, conocido como fractal. La enzima microbiana denominada citrato sintasa es la primera estructura fractal molecular ensamblada directamente en la naturaleza que ha logrado identificarse hasta el momento. Los especialistas creen que este fractal puede representar un accidente evolutivo.
    Pablo Javier Piacente
  • El cambio climático podría estar relacionado con el aumento de los accidentes cerebrovasculares 15 abril, 2024
    Una nueva investigación ha demostrado que el número de muertes ligadas a accidentes cerebrovasculares y otras patologías relacionadas ha ido creciendo desde 1990, a la par del aumento de las temperaturas extremas. Durante 2019, el último año analizado, más de 500.000 muertes por accidentes cerebrovasculares se vincularon con temperaturas "no óptimas", provocadas por el calentamiento […]
    Pablo Javier Piacente
  • La globalización está fracturando a la humanidad 15 abril, 2024
    La globalización no está conduciendo a una civilización universal con valores compartidos, sino que está creando una brecha creciente entre los países occidentales de altos ingresos y el resto del mundo, en cuanto a valores como la tolerancia, la diversidad y la libertad.
    Eduardo Martínez de la Fe
  • En el caso de los caracoles, el huevo fue lo primero 14 abril, 2024
    Un caracol marino que primero fue ovíparo y evolucionó hacia la viviparidad revela que los saltos evolutivos ocurren gradualmente, a través de una serie de pequeños cambios.
    Redacción T21
  • Revelan el misterio del árbol tropical que camina 13 abril, 2024
    La denominada "palma caminante" o Socratea exorrhiza es un árbol de América Central y del Sur que según distintas versiones podría "caminar" y erguirse en determinadas situaciones: ahora, este mito parece haber sido resuelto bajo criterios científicos. Según los investigadores, aunque el árbol puede crecer rápidamente y crear nuevas raíces para lidiar con la pérdida […]
    Pablo Javier Piacente
  • Descubren 50 especies desconocidas para la ciencia en la exótica Isla de Pascua 12 abril, 2024
    Una expedición a la Cordillera de Salas y Gómez, frente a Rapa Nui, en el Océano Pacífico, documentó 160 especies animales que no se sabía que habitaban esta región de la misteriosa Isla de Pascua, en Chile. Además, descubrieron 50 criaturas que son absolutamente nuevas para la ciencia.
    Pablo Javier Piacente
  • El clima espacial podría generar un caos satelital sin precedentes 12 abril, 2024
    Los satélites en órbita terrestre baja (LEO) pueden perder su brújula cuando el clima espacial ofrece situaciones inesperadas. El problema afecta a la Estación Espacial Internacional, la estación espacial Tiangong de China y muchos satélites de observación de la Tierra. Los expertos sostienen que esta incertidumbre de posicionamiento aumenta el riesgo de colisiones orbitales peligrosas, […]
    Pablo Javier Piacente