Tendencias21

Un dispositivo traduce las imágenes en sonido para ayudar a los ciegos a ver

Investigadores del Instituto de Tecnología de California han descubierto que las conexiones neuronales intrínsecas se pueden emplear en dispositivos de asistencia para ayudar a personas ciegas a detectar su entorno sin necesidad de una intensa concentración u horas de entrenamiento. Utilizando unas gafas conectadas a una cámara, un algoritmo escanea cada imagen y genera un sonido con una frecuencia y volumen que varía en función del brillo y la ubicación vertical de los píxeles. Por Patricia Pérez.

Un dispositivo traduce las imágenes en sonido para ayudar a los ciegos a ver

Las personas ciegas a menudo sustituyen el sonido por la vista, y algunas pueden incluso recurrir a la ecolocalización, lo que les permite localizar y discriminar objetos por las ondas acústicas. Pero resulta que el sonido puede también adaptarse para transmitir información visual. Unos investigadores del Instituto de Tecnología de California (Caltech), en Estados Unidos, están aprovechando ese descubrimiento para ayudar a personas ciegas.

Para ello han desarrollado unas gafas inteligentes que convierten las imágenes en sonidos que los usuarios pueden entender de manera intuitiva y sin necesidad de entrenamiento. Según recoge un artículo publicado en la revista online NewScientist, el dispositivo llamado vOICe (OCI significa «¡Oh, I See!»), consta de un par de gafas oscuras con una pequeña cámara que se conecta a un ordenador. El sistema se basa en un algoritmo del mismo nombre desarrollado en 1992 por el ingeniero holandés Peter Meijer.

La herramienta es un ejemplo de cómo se integra la información percibida por diferentes sentidos para componer un todo. Así, por ejemplo, en una cocina, el cerebro procesa el sonido del aceite que chisporrotea, el aroma de las especias, la estética visual de los alimentos dispuestos en el plato, o el tacto y el gusto de tomar un bocado. Aunque todas estas señales pueden parecer distintas e independientes, en realidad interactúan y se integran dentro de la red cerebral de neuronas sensoriales.

Precisamente son esas conexiones neuronales preexistentes las que proporcionan un punto de partida importante para formar a personas con discapacidad visual en el uso de este tipo de dispositivos que les ayudarán a ver.

Una persona vidente simplemente tiene que abrir los ojos y el cerebro procesa automáticamente las imágenes y la información para que se produzca una interacción perfecta con su entorno. Sin embargo, los dispositivos actuales para ciegos y deficientes visuales no son tan automáticos o intuitivos, pues en general requieren concentración y la atención completa del usuario para interpretar la información sobre lo que le rodea.

Esta nueva perspectiva multisensorial podría facilitar tareas que antes requerían mucho tiempo, permitiendo a los invidentes la adquisición de una nueva funcionalidad sensorial similar a la visión.

Un dispositivo traduce las imágenes en sonido para ayudar a los ciegos a ver

Estimular la corteza visual

«La mayoría de libros sobre neurociencia sólo dedican unas páginas a la interacción multisensorial, mientras el 99 por ciento de nuestra vida cotidiana depende de este proceso», lamenta Shinsuke Shimojo, investigador principal del estudio, en un comunicado de Caltech.

A modo de ejemplo, explica que si una persona está hablando por teléfono con alguien que conoce muy bien y está llorando, aunque sólo pueda escuchar el sonido, es capaz de visualizar sus lágrimas en la cara. De esta forma demuestra que la causalidad sensorial no es unidireccional, pues la visión puede influir en el sonido, y viceversa.

Junto a su compañera Noelle Stiles han explotado este proceso para estimular la corteza visual con señales auditivas que codifican la información sobre el entorno. Para ello han utilizado asociaciones que cualquiera conoce, como relacionar un tono alto a lugares elevados en el espacio o sonidos ruidosos con luces brillantes.

El algoritmo de vOICe escanea cada imagen de la cámara de izquierda a derecha, y para cada columna de píxeles genera un sonido con una frecuencia y volumen que depende de la ubicación vertical y el brillo de los píxeles. De esta forma, muchos píxeles brillantes en la parte superior de una columna se traducirían en un sonido de alta frecuencia, mientras que píxeles oscuros en la parte baja darían lugar a un sonido más tranquilo, en un tono más bajo. Finalmente, unos auriculares envían el sonido procesado al oído del usuario, permitiéndole asociar diferentes sonidos a objetos y elementos de su entorno.

Los investigadores realizaron pruebas tanto con personas videntes como invidentes. A los primeros se les pidió emparejar imágenes (rayas, manchas, texturas) con sonidos sin ningún tipo de formación ni instrucciones previas, mientras que los invidentes debían tocar texturas y combinarlas con sonidos. Ambos grupos mostraron una capacidad intuitiva para relacionar texturas e imágenes con los sonidos asociados. Sorprendentemente, el rendimiento del grupo sin entrenamiento no difirió mucho de los preparados.

Conexiones preexistentes

El estudio, descrito en un artículo publicado en la revista especializada Scientific Reports, detectó que el uso de vOICe para ver texturas “ilustra conexiones neuronales intuitivas entre dichas texturas y los sonidos, lo que implica que hay conexiones preexistentes”, asegura Shimojo. Un ejemplo común de estas conexiones es la sinestesia, por la cual la activación de un sentido conduce a una experiencia sensorial diferente involuntaria, como ver un determinado color al oír un sonido específico.

Aunque aún no sabrían determinar lo que hace cada región sensorial del cerebro cuando procesa estas señales, tienen una idea aproximada. Para comprenderlo mejor están utilizando datos funcionales de resonancias magnéticas para analizar la red neuronal.

Más allá de sus implicaciones prácticas, la investigación plantea una importante pregunta filosófica: ¿Qué es ver? «¿Es ver lo que pasa cuando abres los ojos? No, porque eso no es suficiente si la retina está dañada ¿Es cuando se activa la corteza visual? Nuestra investigación ha demostrado que la corteza visual puede activarse por el sonido, lo que indica que realmente no necesitamos los ojos para ver”, se cuestiona Shimojo. Sea una cosa u otra, lo cierto es que con este tipo de aplicaciones se ofrece a los invidentes una experiencia visual a través de otros sentidos.

RedacciónT21

Hacer un comentario

RSS Lo último de Tendencias21

  • Descubren un helecho tropical que transforma sus hojas muertas en nuevas raíces 9 febrero, 2024
    Para sobrevivir en el suelo anegado y bajo en nutrientes del bosque de Quebrada Chorro, en el oeste de Panamá, una especie de helecho tropical arborescente reutiliza sus hojas muertas, convirtiéndolas en nuevas raíces. Los científicos descubrieron que el helecho reconfigura estas “hojas zombis”, invirtiendo el flujo de agua para atraer nutrientes de regreso a […]
    Pablo Javier Piacente
  • Descubren una extraña combinación de minerales en las muestras lunares de la misión Chang'e-5 de China 9 febrero, 2024
    Los minerales antiguos y nuevos identificados en las muestras lunares traídas por la misión Chang'e-5 de China están ayudando a los científicos a comprender mejor la historia de la Luna: ahora, los especialistas han descubierto más propiedades del sexto nuevo mineral lunar, llamado Changesite-(Y). Además, otros compuestos hallados, la seifertita y la stishovita, pueden coexistir […]
    Pablo Javier Piacente
  • Los robots que atienden a pacientes llegan a los hospitales 9 febrero, 2024
    Robots diseñados para brindar comodidad a los pacientes de edad avanzada y aliviar su ansiedad, han sido probados con éxito en un hospital de París: saludan, responden a preguntas, comprenden conversaciones grupales y apoyan las tareas de enfermería.
    Redacción T21
  • Una pequeña luna de Saturno parecida a la “Estrella de la Muerte” de Star Wars contiene un océano oculto 8 febrero, 2024
    Por debajo de la superficie repleta de cráteres de Mimas, una de las lunas más pequeñas de Saturno, se esconde un océano global de agua líquida de reciente formación. El satélite posee tan sólo unos 400 kilómetros de diámetro y presenta un notable parecido con la “Estrella de la Muerte”, una estación espacial imperial que […]
    Pablo Javier Piacente
  • Logran controlar un objeto virtual con la mente durante un sueño lúcido 8 febrero, 2024
    Un grupo de participantes en un nuevo estudio científico logró manejar un vehículo virtual a través de un avatar únicamente con su mente, mientras sus cerebros permanecían en la fase REM del sueño. Además de profundizar en los misterios de la consciencia humana, la innovación podría facilitar el acceso a nuevos desarrollos tecnológicos, como un […]
    Pablo Javier Piacente
  • Un proyecto global trabaja para crear de forma colaborativa un cerebro robótico general 8 febrero, 2024
    El auge de la inteligencia artificial generativa impulsa un proyecto global que trabaja para crear un cerebro robótico general, capaz de generar androides como los que hemos visto hasta ahora solo en la ciencia ficción. Pero es cuestión de tiempo que convivamos con ellos en perfecta armonía. Ya no es una utopía.
    Eduardo Martínez de la Fe
  • La IA está capacitada para resolver dilemas morales cuando conduce vehículos autónomos 8 febrero, 2024
    Los sistemas de IA muestran significativas similitudes éticas con las reacciones humanas ante dilemas morales, lo que los acreditan para conducir vehículos autónomos tal como lo harían las personas.
    Redacción T21
  • Los huracanes se están volviendo tan fuertes que ya no existen categorías para clasificarlos 7 febrero, 2024
    Cinco tormentas en la última década tuvieron velocidades de viento que pertenecen a una hipotética categoría 6 en la escala de huracanes Saffir-Simpson: el fenómeno obligaría a los científicos a crear una nueva clasificación, capaz de reflejar la virulencia de los huracanes en la actualidad. Las causas principales del fenómeno tienen su origen en el […]
    Pablo Javier Piacente
  • Un asteroide habría explotado sobre la Antártida hace unos 2,5 millones de años 7 febrero, 2024
    Un asteroide se desintegró sobre el continente antártico hace aproximadamente 2,5 millones de años: la evidencia proviene de un análisis químico de más de 100 pequeños trozos de roca extraterrestre, que se han preservado dentro de las enormes capas de hielo. Hasta el momento, solo se conocen otros dos eventos de explosiones aéreas antiguas en […]
    Pablo Javier Piacente
  • Crean la primera niña de inteligencia artificial del mundo 7 febrero, 2024
    La primera niña IA del mundo ha sido creada por científicos chinos, que la han dotado de emociones e intelecto y de la capacidad de aprender de forma autónoma. Se comporta como si tuviera tres o cuatro años y representa un avance significativo para el campo de la inteligencia artificial general.
    Redacción T21