El interés por la tecnología de reconocimiento facial ha crecido en los últimos años, dado su potencial en multitud de aplicaciones, desde el ámbito de la seguridad al desbloqueo de dispositivos móviles. Como consecuencia, son numerosas las herramientas disponibles en el mercado, cuyos desarrolladores afirman haber alcanzado tasas de precisión casi perfectas, superando al ojo humano para detectar una cara entre una multitud.
Sin embargo, la mayoría de esas pruebas se realizaron con muestras que no superaban las 13.000 imágenes, por lo que se desconoce su efectividad ante grandes aglomeraciones humanas. Para tratar de comprobarlo, investigadores de la Universidad de Washington, en Estados Unidos, han puesto en marcha el desafío MegaFace, la primera competición mundial para evaluar y mejorar el rendimiento de los algoritmos de reconocimiento facial a gran escala, con millones de imágenes de personas.
Para llevar a cabo el reto, los investigadores crearon una base de datos con un millón de imágenes de Flickr de 690.000 usuarios diferentes, fotografías publicadas desde diversos rincones del planeta bajo una licencia Creative Commons. «Necesitamos poner a prueba el reconocimiento facial a una escala planetaria; no podemos probarlo a una escala muy pequeña y decir que funciona perfectamente», destaca la profesora Ira Kemelmacher-Shlizerman, directora del proyecto, en un comunicado de la universidad.
De los resultados de las primeras pruebas se desprende que todos los algoritmos tuvieron problemas de precisión al enfrentarse a más distracciones, aunque a algunos les fue mucho mejor que a otros. De hecho, se da la coincidencia de que aquellos algoritmos que obtuvieron un buen resultado con 10.000 imágenes, bajaron la precisión hasta el 33 por ciento al enfrentarse al millón de imágenes.
Los resultados más satisfactorios fueron para la tecnología desarrollada por la startup rusa N-TechLab, que consiguió un 73 por ciento de identificaciones positivas, seguida por FaceNet de Google con un 70 por ciento. La ganadora utilizó la plataforma FindFace, que ha causado un gran revuelo en Rusia al permitir la localización de personas a través de sus perfiles en VK, la mayor red social del país, con tan solo una imagen de su rostro.
Verificación e identificación
El reto incluyó dos tipos de pruebas, de verificación e identificación. La primera consistía en verificar entre dos fotos si correspondían a la misma persona. Este uso resulta de utilidad, por ejemplo, para el sistema de verificación facial del iPhone, por el cual se desbloquea al reconocer la cara del dueño en lugar de pedir una contraseña. El objetivo es evitar que si el teléfono se pierde, alguien pueda desbloquearlo por similitudes faciales.
Del mismo modo, la prueba de identificación sirvió para calcular la precisión con que los algoritmos podían encontrar coincidencias entre la foto de una persona sola y varias fotos en las que aparecía rodeado por un millón de «distractores”. Esto es lo que ocurre, por ejemplo, cuando la policía sólo dispone de una fotografía del sospechoso de un delito y tiene que examinar imágenes tomadas en el metro o el aeropuerto para evitar su fuga.
Algunos de los escollos más difíciles de superar fueron reconocer a la misma persona con diferentes edades o en imágenes tomadas desde distintos puntos de vista, bien de perfil o de lado, o distinguirla de ese doble que todos tenemos en algún lugar del mundo.
En general, los algoritmos que «aprendieron» a detectar coincidencias con bases de datos más grandes superaron a aquellos que accedieron a menos imágenes durante la fase de entrenamiento. La excepción fue SIAT MMLab, desarrollado por un equipo de investigadores chinos, que a pesar de entrenar con un reducido número de imágenes superó a muchas otras herramientas, situándose en los primeros puestos del desafío.
Igualdad de oportunidades
Los próximos pasos de MegaFace pasan por reunir más de medio millón de identidades, cada una con una serie de fotografías, para crear una nueva base de datos con la que entrenar a los algoritmos.
De esta forma se dará las mismas oportunidades a todos los equipos de investigación de acceder a un volumen de imágenes a gran escala, un privilegio del que sólo pueden disponer grandes como Google o Facebook. La nueva colección se dará a conocer a finales del verano.
«Los algoritmos de redes neuronales profundas tienen millones de parámetros para aprender y requieren de gran cantidad de ejemplos para ajustarlos», explica el investigador Aaron Nech.
Y es que, a diferencia de las personas, estos modelos son inicialmente una pizarra en blanco, por lo que disponer de una colección de datos diversa y compleja puede resultar de utilidad para aumentar su rendimiento, proporcionando ejemplos de situaciones para las que no se había preparado.
Hacer un comentario