Tendencias21
Un nuevo sistema permite controlar un vídeo con las expresiones del rostro

Un nuevo sistema permite controlar un vídeo con las expresiones del rostro

Un estudiante de ingeniería informática de la Universidad de California ha desarrollado un sistema que permite a un usuario controlar la velocidad de reproducción de un video sin usar ningún interfaz, únicamente merced a las expresiones de su rostro. El sistema regula la velocidad de reproducción de una videoconferencia en función de las reacciones del rostro del usuario, según sean de aburrimiento o interés, y así optimiza el aprendizaje. El sistema tendrá importantes aplicaciones pedagógicas, tanto en sistemas de tutorización inteligente como en el ámbito general de la enseñanza. Por César Gutiérrez.

Un nuevo sistema permite controlar un vídeo con las expresiones del rostro

Los hallazgos presentados durante el pasado junio por el brillante joven Jacob Whitehill, que realiza actualmente sus estudios de doctorado en informática en la Escuela Jacob de Ingeniería (Universidad California, San Diego, UCSD), incluyeron una pasmosa y espectacular demostración: sin pulsar ningún botón, sin ningún mando a distancia ni cualquier otro tipo de instrumento de control en sus manos, la velocidad de reproducción de un vídeo se modulaba según sus deseos en menos tiempo del que se tarda en pronunciar la palabra PLAY gracias a las expresiones de su rostro. Es decir, en tiempo real, ya que la respuesta del aparato tiene lugar antes de que dichos deseos se conviertan en una orden.

Tal como explica la citada universidad en un comunicado, lo que hay detrás de todo ello se llama: reconocimiento de la expresión facial, y no constituye ningún misterio en el ámbito de diversas disciplinas, entre ellas la informática, la pedagogía e incluso la teoría de la evolución, que no peregrinamente viene a colación ya que fue Darwin el primero en dar cuenta de la similitud, y posible universalidad, de las expresiones no verbales en individuos de muy diferentes culturas, aunque los estudios sistemáticos concernientes a la expresión facial hubieran de esperar casi un siglo. Los llevaron a cabo Paul Ekman y Wallace Friesen.

Anatomía clásica

El hoy ya clásico Sistema de Codificación de Acción Facial (Facial Action Coding System, FACS) desarrollado por Ekman y Friesen (1978) es una de las herramientas fundamentales que Jacob Whitehill viene utilizando desde hace unos años en el desarrollo de sus experimentos y aplicaciones. Este sistema descompone la expresión facial en 46 unidades de acción (Action Unit, UA) que vienen a corresponderse aproximadamente con la actividad (y consiguiente traducción gestual) de cada uno de los músculos de la cara.

Si bien el sistema ha sido mejorado durante las últimas décadas y la cantidad de UAs ha sido ligeramente ampliada con posterioridad al trabajo de Ekman (para hacernos una idea del altísimo nivel de detalle en su descripción de expresiones basta pensar en las aproximadamente 7.000 combinaciones gestuales observadas y analizadas a partir de una base de 56 UAs), Whitehill tan sólo ha necesitado contar con el reconocimiento por visión computerizada de una docena de ellas para su estudio, si bien el equipo informático utilizado estaba dotado también de un “detector de sonrisa” y se sometieron además a observación y cuantificaron otras variables gestuales como el ritmo de pestañeo.

Captura de información

El estudio de Whitehill se enmarca dentro de un ambicioso proyecto que con toda probabilidad tendrá en un cercano futuro importantes aplicaciones pedagógicas, tanto en sistemas de tutorización inteligente como en el ámbito general de la enseñanza.

A pesar de su juventud, Whitehill cuenta ya con una amplia experiencia en el campo del diseño y la implementación de experimentos relacionados con las técnicas automatizadas de análisis gestual, de modo que la metodología y los instrumentos de los que se ha servido para llevar a cabo este estudio han contado con un considerable grado de sofisticación, especialmente en lo concerniente a la visión computerizada, el reconocimiento automatizado de patrones y el procesamiento de imagen.

Algunas de las implicaciones del desarrollo de aplicaciones relacionadas con esta investigación pueden calibrarse si se tiene en cuenta la importancia de la expresión facial como canal de información suplementario y en gran medida independiente del lenguaje oral durante los procesos de interlocución personal (y personal-maquinal). La posibilidad de capturar dicha información y la implementación de soportes adecuados para gestionarla de forma automatizada (y, lo que es especialmente relevante, hacerlo en tiempo real), es uno de los principales objetivos que Whitehill parece haberse marcado.

Enseñanza inteligente

Aunque no es difícil vislumbrar las múltiples aplicaciones que los hasta ahora fructíferos y prometedores trabajos de Whitehill podrían ofrecer sin ir más lejos a la industria del ocio (especialmente en el ámbito de los juegos interactivos), la orientación de los mismos está por su parte claramente orientada en principio al ámbito pedagógico.

Los ejes fundamentales de la aplicación (en torno a los que ha girado el estudio cuyos resultados acaban de presentarse) son dos. El primero, la evaluación automatizada del estado del oyente/lector (aburrimiento, confusión, perplejidad, interés…), y consiguientemente, el grado de dificultad (tal y como es percibida por él mismo) que está interfiriendo con su asimilación de las enseñanzas impartidas.

El segundo eje consiste en dotar a esta aplicación de la capacidad para modular automáticamente, según sus –instantáneas– preferencias, la velocidad de visionado y por tanto el volumen de flujo de contenidos. Todo ello a partir del análisis gestual computerizado.

Es obvia la relevancia de tales herramientas aplicadas a los sistemas tutoriales inteligentes, en los que cuestiones como el cuándo y el cómo enseñar, la interactividad y la retro-alimentación se consideran esenciales.

En palabras de Whitehill: Si yo fuera un estudiante que tratara con una máquina que estuviera impartiéndome una clase y me encontrara confundido, y aun así la máquina continuara inundándome con más contenido, no sería muy útil para mí. En cambio, si ante mi estado de confusión la máquina se detuviera un momento y dijera: ‘Vaya!, quizá estés algo confuso…”, y yo le respondiera: ‘Sí, gracias por darme un respiro’, entonces todo sería estupendo.

La esponsorización de su estudio por parte, entre otras instituciones, del Temporal Dynamics of Learning Center (de la UCSD) parece indicar que el joven Jacob Whitehill no va a estar solo a la hora de desarrollar estos proyectos desde luego estupendos.

RedacciónT21

Hacer un comentario

RSS Lo último de Tendencias21

  • Estados Unidos abre una nueva ontología militar con el lanzamiento del avión F-47 22 marzo, 2025
    El F-47 que desarrollará Boeing para el Pentágono redefine el concepto de superioridad aérea, fusionando avances en inteligencia artificial, sistemas furtivos de vanguardia y capacidades de combate colaborativo con drones autónomos.
    EDUARDO MARTÍNEZ DE LA FE/T21
  • Descubren por qué algunas personas no pueden imaginar prácticamente nada 22 marzo, 2025
    La capacidad de visualizar un lugar, objeto o situación a pedido varía significativamente entre individuos. Pero algunas personas no pueden evocar imágenes mentales en absoluto: este rasgo se conoce como afantasía, literalmente "un defecto de la imaginación". Ahora, un nuevo estudio revela que estas personas tienen la capacidad de asociar un concepto con su representación […]
    Pablo Javier Piacente
  • Las montañas esconden los mayores reservorios de energía limpia 21 marzo, 2025
    Una nueva investigación sugiere que podrían existir reservas masivas de gas de hidrógeno natural escondiéndose en las cadenas montañosas del planeta: estos recursos podrían darnos acceso a una enorme fuente de energía limpia, capaz de solucionar la crisis energética actual.
    Pablo Javier Piacente / T21
  • Un anillo con IA optimiza la comunicación de personas con problemas auditivos 21 marzo, 2025
    Investigadores de la Universidad de Cornell, en Estados Unidos, han desarrollado un innovador dispositivo llamado SpellRing: se trata de un anillo potenciado por Inteligencia Artificial (IA) que utiliza tecnología de microsonar para rastrear en tiempo real el deletreo manual en el Lenguaje de Señas Americano (ASL). Este avance podría transformar la forma en que las […]
    Pablo Javier Piacente / T21
  • Identifican la vía química que regula cómo tienen sexo los ratones 21 marzo, 2025
    Una aceitada maquinaria química marca el ritmo sexual de los ratones machos: la dopamina y la acetilcolina van cumpliendo diferentes papeles desde antes del coito y hasta la eyaculación. Los descubrimientos podrían habilitar nuevas instancias terapéuticas para trastornos sexuales en humanos, como por ejemplo la eyaculación precoz.
    Redacción T21
  • Un nuevo mapa revela el paisaje oculto bajo el hielo de la Antártida y la vulnerabilidad del continente helado 21 marzo, 2025
    Un nuevo mapa elaborado por científicos británicos revela por primera vez con precisión milimétrica las sorprendentes características del paisaje oculto bajo el hielo antártico y confirma el enorme riesgo climático que supone el deshielo acelerado en la región.
    Redacción T21
  • Descubren que la base del lenguaje humano se desarrolló hace 135.000 años 20 marzo, 2025
    Los humanos hablamos más de 7.000 idiomas en la actualidad, muy diferentes entre ellos: sin embargo, un nuevo estudio ha descubierto que todas estas variantes idiomáticas provienen de un solo árbol genealógico lingüístico, que surgió antes de que nuestra especie se dividiera en poblaciones distintas hace 135.000 años. Solo 35.000 años después, el lenguaje habría […]
    Pablo Javier Piacente / T21
  • Nace el primer periódico creado íntegramente por la Inteligencia Artificial 20 marzo, 2025
    Por primera vez en la historia, un periódico italiano ha publicado una edición especial en la que cada palabra, titular y cita han sido generados exclusivamente por IA. Así nace Il Foglio AI, un proyecto que promete revolucionar la forma en que concebimos las noticias.
    Redacción T21
  • Google habría impulsado una IA experimental involucrada en la muerte de un adolescente 20 marzo, 2025
    Plataformas respaldadas por gigantes tecnológicos como Google han introducido chatbots de IA interactivos dirigidos a niños y adolescentes, abriendo fuertes debates sobre su impacto en el desarrollo infantil. En concreto, la aplicación experimental Character.AI ha sido objeto de demandas legales por parte de distintas familias, que alegan que sus hijos fueron expuestos a contenidos perjudiciales […]
    Pablo Javier Piacente / T21
  • Desvelan la primera luz que encendió el Universo 20 marzo, 2025
    El Telescopio de Cosmología de Atacama (ACT) ha compilado el mapa más detallado que hemos visto hasta hoy del fondo cósmico de microondas, la tenue luz que impregna el Universo desde solo 380.000 años después del Big Bang y cuyos ecos pueden apreciarse en la actualidad. La imagen obtenida es lo más parecido a la […]
    Redacción T21