Tendencias21
La activación del “ojo de la mente” con sonidos permite a los ciegos interpretar imágenes

La activación del “ojo de la mente” con sonidos permite a los ciegos interpretar imágenes

Investigadores de la Universidad Hebrea de Jerusalén han demostrado que las personas ciegas pueden «ver» y describir objetos, e incluso identificar letras y palabras, usando un sistema que traduce imágenes en sonido. El método permitió que, en tan solo 70 horas de entrenamiento, los invidentes alcanzasen una agudeza visual que, aunque no implicó la activación del sistema oftalmológico del cuerpo, sí activó la red de identificación visual del cerebro. Por Yaiza Martínez.

La activación del “ojo de la mente” con sonidos permite a los ciegos interpretar imágenes

Se suele pensar que si la corteza visual del cerebro se ve privada de la información visual en la más tierna infancia, posteriormente no podrá desarrollar su especialización funcional y, por tanto, la restauración de la vista en un futuro resultará casi imposible.

Sin embargo, científicos de la Universidad Hebrea de Jerusalén han constatado, usando un equipo fotográfico y sonoro especializado, que las personas ciegas en realidad sí pueden «ver» y describir objetos, e incluso identificar letras y palabras.

El hallazgo ha sido posible gracias a un estudio realizado por un equipo de investigadores dirigido por Amir Amedi, del Edmond and Lily Safra Center for Brain Sciences y del Institute for Medical Research Israel-Canada (IMRIC) de la Universidad Hebrea, en el que se aplicó un nuevo paradigma de entrenamiento para ciegos, basado en dispositivos sensoriales de sustitución (SSD).

Los SSD son soportes sensoriales no invasivos que proporcionan información visual a los invidentes, a través de los sentidos que estos sí tienen. Por ejemplo, un usuario con un SSD visual-auditivo llevará, en un entorno clínico o cotidiano, una cámara en miniatura conectada a un pequeño ordenador (o teléfono inteligente), así como auriculares estéreo.

Este sistema hace que las imágenes se vuelven “sonoras”, gracias a un algoritmo de predicción, lo que permite al usuario escuchar y luego interpretar la información visual procedente de la cámara.

Desarrollo de una gran agudeza visual

Las personas ciegas que participaron en este estudio alcanzaron un nivel de agudeza visual que supera a la establecido por los criterios para la ceguera de la Organización Mundial de la Salud (OMS), informa la Universidad Hebrea de Jerusalén a través de Alphagalileo.

La capacidad “visual” desarrollada por estos individuos, aunque no es convencional en el sentido de que no implicó la activación del sistema oftalmológico del cuerpo, realmente activó la red de identificación visual del cerebro.

Las pruebas realizadas con estas personas demostraron que, tras 70 horas de entrenamiento con el método desarrollado en el laboratorio de Amedi, estas pudieron utilizar con facilidad los SSD para clasificar imágenes en categorías de objetos (rostros, casas, formas del cuerpo, objetos y texturas cotidianas).

Asimismo, los participantes también fueron capaces de establecer la localización de personas, identificar expresiones faciales e, incluso, leer letras y palabras. Los resultados obtenidos han aparecido publicados en el último número de la revista Neuron.

¿Qué sucede en el cerebro cuando se aprende a “ver”?

Por otra parte, los investigadores de la Universidad Hebrea analizaron en este trabajo lo que sucede en el cerebro cuando los ciegos aprenden a ver a partir de sonidos. En concreto, los científicos evaluaron la activación de la corteza visual a partir de la adquisición de agudeza visual, puesto que se suponía que la corteza visual permanece inactiva en ciegos.

Para realizar estas observaciones, Amedi y su equipo utilizaron la tecnología de registro de imágenes por resonancia magnética funcional (fMRI), un procedimiento clínico y de investigación que permite mostrar en imágenes las regiones cerebrales que ejecutan una tarea determinada.

Con la fMRI, los investigadores pudieron medir la actividad neuronal de las personas ciegas de nacimiento que “veían”, gracias a los SSD, imágenes en alta resolución de letras, caras, casas, objetos cotidianos y formas corporales.

Los resultados de estos análisis fueron sorprendentes: se constató que, gracias a los sonidos, no solo se activaba la corteza visual de los invidentes participantes en el estudio, sino que, además, los cerebros de estos mostraban selectividad para aquellas categorías visuales con que clasifican imágenes los cerebros de personas que sí ven.

Además, se constató que una parte específica del cerebro, conocida como el ‘Área de la Forma de Palabra Visual’ (AFPV) – descubierta por vez primera en personas videntes por Laurent Cohen y Stanislas Dehaene del Hospital Pitié-Salpêtrière del INSERM-CEA de Francia- también funcionaba en las personas privadas de vista del estudio.

Se sabe que la AFPV tiene, en personas no ciegas, un papel en la lectura, y que esta área se activa al ver y leer letras, más que ante cualquier otro objeto visual. En el caso de los ciegos analizados, los científicos comprobaron que, después de sólo unas decenas de horas de capacitación con los SSD, estos presentaban una mayor activación de la AFPV ante las letras que para cualesquiera otras de las categorías visuales probadas.

De hecho, la AFPV resultó ser tan plástica y proclive a cambiar, que mostró una actividad incrementada para las letras de los SSD tras menos de dos horas de entrenamiento, en uno de los participantes en el estudio.

“Despertar” la visión en el cerebro

Según Amedi, esto demuestra que “el cerebro adulto es más flexible que lo que pensábamos». Esta y otras investigaciones recientes han demostrado que múltiples áreas del cerebro no son específicas de un sentido determinado (la visión, el oído o el tacto), sino que, además, pueden compartir varias modalidades.

Todo ello sugiere que, en los ciegos, las áreas cerebrales podrían ser “despertadas” para procesar propiedades y tareas visuales, años después de que estos hayan perdido la vista, e incluso aunque hayan sido ciegos toda la vida, usando las tecnologías y los métodos de entrenamiento adecuados, afirma Amedi.

Los hallazgos realizados también proporcionan la esperanza de que la reintroducción de señales en los centros visuales del cerebro de personas ciegas pueda restaurar la visión de estas. En este sentido, los SSD podrían resultar útiles en la rehabilitación visual del cerebro.

Los SSD podrían usarse, por último, como intérpretes sensoriales que indiquen a los ciegos el significado de señales visuales obtenidas por dispositivos externos, como unos ojos biónicos, concluye Amedi.

Historia de la sustitución sensorial

La sustitución sensorial fue introducida por vez primera en los años 60 por el neurocientífico americano Paul Bach-y-Rita, especializado en la plasticidad cerebral.

Bach y Rita utilizó esta técnica entonces como medio para aprovechar una modalidad sensorial, sobre todo el tacto, para la obtención de información del entorno, de manera que esta pudiera ser usada por otra modalidad sensorial, principalmente la vista.

El primer SSD fue creado por este científico para individuos con ceguera congénita, como herramienta de fomento de la plasticidad cerebral. Desde ese momento, en la sustitución sensorial se han basado muchas investigaciones sobre neurociencia cognitiva y percepción. Además, este método ha contribuido al conocimiento de la función cerebral, la cognición humana y la rehabilitación.

Referencia bibliográfica:

Ella Striem-Amit, Laurent Cohen, Stanislas Dehaene, Amir Amedi. Reading with Sounds: Sensory Substitution Selectively Activates the Visual Word Form Area in the Blind. Neuron, 2012; 76 (3): 640 DOI:10.1016/j.neuron.2012.08.026.

RedacciónT21

Hacer un comentario

RSS Lo último de Tendencias21

  • ¿Estamos a las puertas de la superhumanidad? Se dispara el movimiento de la “mejora humana” 23 marzo, 2025
    Un nuevo movimiento está ganando impulso en todo el mundo para trascender los límites biológicos mediante tecnologías de vanguardia que podrían transformar la base de lo que significa ser humano. Un desafío ético que sobrepasa a los poderes públicos.
    EDUARDO MARTÍNEZ DE LA FE/T21
  • Usan tatuajes electrónicos para medir la actividad cerebral 23 marzo, 2025
    Un equipo de investigación ha logrado crear una tinta líquida que se puede "imprimir" directamente en el cuero cabelludo como si se tratara de un tatuaje, poniendo en actividad sensores para controlar la actividad cerebral con fines terapéuticos y de investigación. El tatuaje temporal ofrece una solución sencilla y confortable para medir las ondas cerebrales.
    Pablo Javier Piacente
  • Estados Unidos abre una nueva ontología militar con el lanzamiento del avión F-47 22 marzo, 2025
    El F-47 que desarrollará Boeing para el Pentágono redefine el concepto de superioridad aérea, fusionando avances en inteligencia artificial, sistemas furtivos de vanguardia y capacidades de combate colaborativo con drones autónomos.
    EDUARDO MARTÍNEZ DE LA FE/T21
  • Descubren por qué algunas personas no pueden imaginar prácticamente nada 22 marzo, 2025
    La capacidad de visualizar un lugar, objeto o situación a pedido varía significativamente entre individuos. Pero algunas personas no pueden evocar imágenes mentales en absoluto: este rasgo se conoce como afantasía, literalmente "un defecto de la imaginación". Ahora, un nuevo estudio revela que estas personas tienen la capacidad de asociar un concepto con su representación […]
    Pablo Javier Piacente
  • Las montañas esconden los mayores reservorios de energía limpia 21 marzo, 2025
    Una nueva investigación sugiere que podrían existir reservas masivas de gas de hidrógeno natural escondiéndose en las cadenas montañosas del planeta: estos recursos podrían darnos acceso a una enorme fuente de energía limpia, capaz de solucionar la crisis energética actual.
    Pablo Javier Piacente / T21
  • Un anillo con IA optimiza la comunicación de personas con problemas auditivos 21 marzo, 2025
    Investigadores de la Universidad de Cornell, en Estados Unidos, han desarrollado un innovador dispositivo llamado SpellRing: se trata de un anillo potenciado por Inteligencia Artificial (IA) que utiliza tecnología de microsonar para rastrear en tiempo real el deletreo manual en el Lenguaje de Señas Americano (ASL). Este avance podría transformar la forma en que las […]
    Pablo Javier Piacente / T21
  • Identifican la vía química que regula cómo tienen sexo los ratones 21 marzo, 2025
    Una aceitada maquinaria química marca el ritmo sexual de los ratones machos: la dopamina y la acetilcolina van cumpliendo diferentes papeles desde antes del coito y hasta la eyaculación. Los descubrimientos podrían habilitar nuevas instancias terapéuticas para trastornos sexuales en humanos, como por ejemplo la eyaculación precoz.
    Redacción T21
  • Un nuevo mapa revela el paisaje oculto bajo el hielo de la Antártida y la vulnerabilidad del continente helado 21 marzo, 2025
    Un nuevo mapa elaborado por científicos británicos revela por primera vez con precisión milimétrica las sorprendentes características del paisaje oculto bajo el hielo antártico y confirma el enorme riesgo climático que supone el deshielo acelerado en la región.
    Redacción T21
  • Descubren que la base del lenguaje humano se desarrolló hace 135.000 años 20 marzo, 2025
    Los humanos hablamos más de 7.000 idiomas en la actualidad, muy diferentes entre ellos: sin embargo, un nuevo estudio ha descubierto que todas estas variantes idiomáticas provienen de un solo árbol genealógico lingüístico, que surgió antes de que nuestra especie se dividiera en poblaciones distintas hace 135.000 años. Solo 35.000 años después, el lenguaje habría […]
    Pablo Javier Piacente / T21
  • Nace el primer periódico creado íntegramente por la Inteligencia Artificial 20 marzo, 2025
    Por primera vez en la historia, un periódico italiano ha publicado una edición especial en la que cada palabra, titular y cita han sido generados exclusivamente por IA. Así nace Il Foglio AI, un proyecto que promete revolucionar la forma en que concebimos las noticias.
    Redacción T21