Tendencias21

Crean un robot que reacciona a los gestos humanos

Investigadores de la Universidad de Brown, en Estados Unidos, han creado un robot que puede seguir los gestos humanos en varios entornos (interiores y exteriores) sin tener que hacer ajustes por los cambios de luz.

Presentado en la feria Human-Robot Interaction en San Diego, California, entre el 11 y el 13 de marzo, este avance supone un importante paso hacia la fabricación de robots completamente autónomos, según informa la Universidad de Brown en un comunicado.

Todavía está lejos el momento en que los humanos podamos dirigirnos a nuestros robots personales para darles órdenes, y que éstos reaccionen haciendo exactamente lo que les pedimos, pero el equipo de la Universidad de Brown ha conseguido demostrar que un robot puede ya seguir órdenes no verbales y verbales de una persona, y en lugares diversos.

Robot muy obediente

Según declaró Chad Jenkins, profesor de ciencias computacionales de la Brown y director del proyecto, en el comunicado emitido por la universidad, el sistema creado es novedoso, y permite que el robot siga a las personas a cierta distancia, sin que éstas tengan que llevar una ropa especial ni estar en un entorno concreto.

Tal y como se puede ver en el vídeo demostración, los creadores del robot utilizan una serie de señales realizadas con el brazo y la mano para dar instrucciones al robot del tipo: “sigue”, “espera” o “para”.

El robot obedece a los investigadores mientras avanza detrás de ellos a través de los estrechos pasillos del interior de un edificio o por un parking exterior, manteniendo siempre aproximadamente la misma distancia (un metro) con respecto a las personas a las que sigue.

También con señales y con órdenes verbales, los científicos hacen que el robot atraviese una puerta abierta, se detenga, se dé la vuelta y atraviese la misma puerta en sentido contrario.

Por último, el robot se detiene cuando la persona a la que sigue desaparece de su campo de visión, y “espera” hasta que su instructor regresa y le da otra orden verbal o no verbal.

Cámara y programas informáticos incorporados

El punto de partida de este robot es un PackBot, una plataforma mecanizada desarrollada por la compañía iRobot y que ha sido muy utilizada por el ejército norteamericano para eliminar bombas, entre otras tareas.

Los investigadores equiparon esta plataforma con una cámara y con un ordenador portátil que incluye novedosos programas informáticos que permiten a la máquina reconocer los gestos humanos, descifrarlos y responder ante ellos.

Los científicos realizaron dos avances clave con el robot, con respecto a la tecnología ya existente. El primero, relacionado con lo que se denomina el reconocimiento visual.

Aplicado a los robots, este concepto significa ayudar a éstos a orientarse por ellos mismos con respecto a otros objetos que haya en un entorno determinado. Los robots ya podían “ver” cosas, explica Jenkins, pero hasta ahora no podían reconocerlas.

Los investigadores de la Universidad de Brown superaron este obstáculo creando un programa informático que permite que el robot reconozca a las personas extractando de éstas una silueta, como si fueran “recortables” virtuales.

Así, el robot puede seguir a sus instructores, y también recibir órdenes sin que lo “distraigan” otros objetos o personas que se encuentren en el mismo lugar.

Compañeros de trabajo

El segundo avance tecnológico estaría relacionado con la cámara incorporada al PackBot. El equipo empleó una cámara CSEM Swiss Ranger, que utiliza la luz infrarroja para detectar objetos y establecer distancias entre la cámara y el objetivo y, también, entre la cámara y cualquier otro objeto que entre en el campo de visión.

El resultado es un robot que no necesita control remoto ni vigilancia constante, lo que resulta un paso esencial hacia el desarrollo de dispositivos autónomos. Los investigadores esperan que el robot vaya obedeciendo cada vez a más órdenes verbales y no verbales, y que se pueda ampliar la distancia a la que ahora mismo se debe mantener de sus instructores para recibir dichas órdenes.

Los avances en la interacción intuitiva entre robots y humanos van encaminados a hacer que los robots sean más como compañeros de trabajo que meras máquinas, explican los científicos.

Hoy día, la robótica avanzada intenta desarrollar robots cada vez más inteligentes y autónomos, que puedan razonar, que compartan, que evolucionen y que actúen como las personas.

Tal y como explicamos por último en otro artículo de Tendencias21, este esfuerzo de asimilar los robots a las personas se está realizando hoy día en al menos seis campos de investigación: el que relaciona al robot con su entorno, el conductual, el cognitivo, el de desarrollo, el evolutivo, y el de la biorrobótica.

En el campo de los ordenadores también son notorios los resultados por acercar las máquinas a las personas. Hace unas semanas, informamos en otro artículo de la presentación del ordenador QB1, que también es dirigido tan sólo con gestos de las manos. Con anterioridad, informamos de otro ordenador, llamado iPoint Presenter, que posibilita una interacción entre humano-ordenador muy similar a la de la película “Minority Report”, de Steven Spielberg, en la que Tom Cruise movía y seleccionaba información en pantallas informáticas simplemente con el movimiento de sus manos.