Investigadores del Instituto de Investigación en Vista y Oído de Massachusetts y de la Escuela de Medicina de la Universidad de Harvard (EE.UU.) han desarrollado una aplicación para teléfonos inteligentes que proyecta la pantalla del smartphone ampliada a Google Glass, donde los usuarios pueden navegar con movimientos de la cabeza para ver las distintas porciones de la pantalla ampliada.
La tecnología puede beneficiar a los usuarios con baja visión, muchos de los cuales encuentran difícil de usar la función de zoom incorporada en el smartphone debido a la pérdida de contexto. Los resultados se publican en la revista IEEE Transactions on Neural Systems and Rehabilitation Engineering.
«Cuando las personas con baja agudeza visual hacen zoom en sus teléfonos inteligentes, ven sólo una pequeña porción de la pantalla, y es difícil para ellos navegar por ella: no saben si la posición actual está en el centro de la pantalla o en una esquina», dice el autor principal Gang Luo, científico que trabaja en ambos centros de investigación, en la información de Massachusetts Eye and Ear. «Esta aplicación transfiere la imagen de las pantallas de los teléfonos a Google Glass y permite a los usuarios controlar la parte de la pantalla que ven moviendo la cabeza, lo que les da lo que les da un muy buen sentido de la orientación.»
Para evaluar su tecnología, los investigadores observaron a dos grupos de personas: uno utilizó la aplicación para Google Glass y el otro la función de zoom del smartphone, y midieron el tiempo que tardaban en completar ciertas tareas. Los investigadores demostraron que el método de navegación basado en la cabeza reduce el tiempo medio un 28 por ciento.
Como próximos pasos para el proyecto, a los investigadores les gustaría incorporar más gestos en Google Glass para interactuar con los teléfonos inteligentes. También les gustaría estudiar la eficacia de la navegación basada en el movimiento de cabeza en comparación con otras opciones de accesibilidad de los teléfonos, como la navegación basada en voz.
Según el primer autor Shrinivas Pundlik, «este concepto de navegación puede ser útil también para personas que no tienen problemas visuales.»
Comunicación táctil a distancia
Las personas con problemas de visión también se beneficiarán del proyecto europeo ProHaptics, que pretende fomentar las comunicaciones hápticas, es decir, comunicaciones basadas en el tacto pero a distancia, en las que el usuario siente que el objeto que controla está junto a él.
Durante el último lustro, el catedrático Eckehard Steinbach, de la Universidad Técnica de Múnich (Alemania), y su equipo han trabajado en el desarrollo de varios métodos y tecnologías innovadores dedicados a la comunicación háptica. En una entrevista que recoge la agencia Cordis, habla sobre las expectativas de futuro de este ámbito científico relativamente joven, las posibles aplicaciones y sus planes para desarrollar aún más la tecnología ahora que el proyecto ha llegado a su fin.
«Uno de los ámbitos de aplicación principales», explica, «es el control a distancia mediante retroalimentación háptica, en la que un usuario interactúa con un entorno remoto mediante HMI (interfaz humano-máquina). En este contexto, el usuario controla a distancia un sistema robótico dotado con sensores y servos. Las fuerzas y la torsión generadas por la interacción se registran cuando el teleoperador interactúa con los objetos remotos y se transmiten como una retroalimentación háptica de vuelta al teleoperador».
De este modo, el usuario puede notar la interacción, además de ver y oír como si estuviera en el espacio controlado. Distintos estudios han mostrado que la retroalimentación háptica aumenta el desempeño y la sensación de presencia. El objetivo a largo plazo de esta investigación es lograr una trabsparencia total en la teleoperación, hasta tal punto que el usuario no pueda distinguir si la tarea se está llevando a cabo in situ o remotamente mediante HMI.
Esta investigación se sirve de estudios sobre pantallas y retroalimentación táctiles, con las que un usuario puede, por ejemplo, sentir la aspereza de una superficie gracias a la HMI. También se han logrado progresos recientes que permiten que dispositivos móviles estándar como los smartphones generen retroalimentación háptica. «Ya es posible modular la fricción entre el dedo y la pantalla de vidrio de un dispositivo móvil de tal forma que se muestren patrones o texturas. En mi opinión, todo ello tiene un enorme potencial para la creación de aplicaciones nuevas que permitan a un usuario explorar objetos a través de Internet, tanto visual como hápticamente».
Además, la interacción y la comunicación hápticas «pueden ofrecer un horizonte nuevo a las personas con discapacidad visual gracias a la enorme capacidad que posee la modalidad háptica para comunicar información útil.»
Aplicaciones
Los sistemas de teleoperación mencionados «ya se emplean en aplicaciones remotas como la cirugía, el mantenimiento, etc. Las interfaces hápticas emergentes, y sobre todo las pantallas táctiles, hacen que sea posible idear aplicaciones completamente nuevas. Imagínese una tienda en Internet en la que el usuario, además de ver el producto, pueda tocarlo antes de adquirirlo. O imagínese que su pareja le envía la foto de un sofá desde una tienda de muebles. ¿No se preguntaría inmediatamente después de ver la foto cuál será el tacto del material? ¿Es suave, cálido, cómodo?»
La comunicación háptica permite, por ejemplo, pasar el teléfono por la superficie del sofá, registrar la vibración mediante los sensores de aceleración, comprimir y transmitir las señales y presentarlas en otro terminal. Esto posibilita transmitir experiencias hápticas a distancia. «Si no le gusta ese material en concreto es posible buscar otro en una base de datos que sea similar o tenga un tacto concreto.»
Otra aplicación, añade, podría ser «un sistema de videollamada en el que fuese posible interactuar de forma háptica durante un viaje, por ejemplo de negocios, con sus hijos, consolarles y en general acortar más las distancias de lo que es posible con las tecnologías actuales.»
En ProHaptics se han desarrollado varios algoritmos, codecs y protocolos que permiten entablar una comunicación háptica en la distancia en las dos modalidades (cinestésica y táctil). «Las tecnologías desarrolladas son antropocéntricas en el sentido de que tienen en cuenta y aprovechan las limitaciones del sistema de percepción háptica. Esto es, la información que no puede percibirse no tiene por qué transmitirse. Los métodos de comunicación háptica resultantes son enormemente eficaces en cuanto a los recursos de comunicación necesarios y pueden utilizarse para interactuar a distancia en entornos reales y virtuales. También ofrecemos propuestas que permiten a varios usuarios interactuar con el mismo objeto en un entorno virtual de un modo coherente y natural».
El equipo está investigando el modo de comercializar algunos de los resultados y elaborando un plan para poner en marcha una empresa.
Referencia bibliográfica:
Gang Luo, Ph.D., first author Shrinivas Pundlik, Ph.D., Huaqi Yi, Rui Liu, M.D., Ph.D., y Eli Peli. O.D. Magnifying Smartphone Screen using Google Glass for Low-Vision Users. IEEE Transactions on Neural Systems and Rehabilitation Engineering (2016).
Hacer un comentario