"Hasta ahora, si colgara un póster publicitario en la zona peatonal y quisiera saber cuántas personas realmente lo vieron, no habría tenido la oportunidad", explica Andreas Bulling, quien dirige el grupo de investigación independiente"Interfaces de usuario perceptuales" en el Cluster de excelencia en la Universidad de Saarland y el Instituto Max Planck de Informática. Anteriormente, uno intentaba capturar esta información importante midiendo la dirección de la mirada. Esto requería un equipo especial de seguimiento ocular que necesitaba una calibración de minutos de duración;Además, todos tenían que usar un rastreador de este tipo. Los estudios del mundo real, como en una zona peatonal, o incluso con varias personas, en el mejor de los casos eran muy complicados y en el peor de los casos, imposibles.
Incluso cuando la cámara se colocó en el objeto de destino, por ejemplo, el póster, y se usó el aprendizaje automático, es decir, la computadora se entrenó con una cantidad suficiente de datos de muestra, solo las miradas a la cámara podrían ser reconocidas. Con demasiada frecuencia, la diferenciaentre los datos de entrenamiento y los datos en el entorno objetivo era demasiado grande. Un detector de contacto visual universal, utilizable tanto para objetos objetivos pequeños como grandes, en situaciones estacionarias y móviles, para un usuario o un grupo completo, o bajo condiciones de iluminación cambiantes,hasta ahora era casi imposible.
Bulling, junto con su estudiante de doctorado Xucong Zhang, y su ex PostDoc Yusuke Sugano, ahora profesor de la Universidad de Osaka, ha desarrollado un método [1] que se basa en una nueva generación de algoritmos para estimar la dirección de la mirada. Estos utilizan un método especialtipo de red neuronal, conocida como "Aprendizaje profundo", que actualmente está creando una sensación en muchas áreas de la industria y los negocios. Bulling y sus colegas ya han estado trabajando en este enfoque durante dos años [2] y lo han avanzado paso a paso[3]. En el método que ahora están presentando, primero se lleva a cabo un llamado agrupamiento de las direcciones de la mirada estimadas. Con la misma estrategia, uno puede, por ejemplo, distinguir también manzanas y peras de acuerdo con diversas características, sin tenerpara especificar explícitamente en qué se diferencian los dos. En un segundo paso, se identifican los grupos más probables y las estimaciones de dirección de la mirada que contienen se utilizan para entrenar un detector de contacto visual específico de objeto-objetivo. Un avance decisivoEl objetivo de este procedimiento es que puede llevarse a cabo sin la participación del usuario, y el método también puede mejorar aún más, cuanto más tiempo permanezca la cámara junto al objeto objetivo y registre datos."De esta manera, nuestro método convierte las cámaras normales en detectores de contacto visual, sin que el tamaño o la posición del objeto objetivo tengan que conocerse o especificarse de antemano", explica Bulling.
Los investigadores han probado su método en dos escenarios: en un espacio de trabajo, la cámara se montó en el objeto de destino y, en una situación cotidiana, un usuario usó una cámara en el cuerpo, por lo que tomó una perspectiva en primera personaEl resultado: dado que el método desarrolla el conocimiento necesario por sí mismo, es robusto, incluso cuando el número de personas involucradas, las condiciones de iluminación, la posición de la cámara y los tipos y tamaños de los objetos objetivo varían.
Sin embargo, Bulling señala que "en principio podemos identificar grupos de contacto visual en múltiples objetos de destino con una sola cámara, pero la asignación de estos grupos a los diversos objetos aún no es posible. Nuestro método actualmente supone que el grupo más cercano pertenece ael objeto de destino e ignora los otros grupos. Esta limitación es lo que abordaremos a continuación ". Sin embargo, está convencido de que" el método que presentamos es un gran paso adelante. Allana el camino no solo para nuevas interfaces de usuario que reconocen automáticamente el ojocontactar y reaccionar ante él, pero también para medir el contacto visual en situaciones cotidianas, como publicidad exterior, que antes eran imposibles ".
[1] Xucong Zhang, Yusuke Sugano y Andreas Bulling. Detección diaria de contacto visual mediante el descubrimiento de objetivos de observación sin supervisión. Proc. ACM UIST 2017
pdf "> http://perceptual.mpi-inf.mpg.de/files/2017/05/zhang17_uist.pdf
[2] Xucong Zhang, Yusuke Sugano, Mario Fritz y Andreas Bulling. Estimación de la mirada basada en la apariencia en la naturaleza. Proceso IEEE CVPR 2015, 4511-4520.
pdf "> http://perceptual.mpi-inf.mpg.de/files/2015/04/zhang_CVPR15.pdf
[3] Xucong Zhang, Yusuke Sugano, Mario Fritz y Andreas Bulling. Está escrito en toda la cara: Estimación de la mirada basada en la apariencia de la cara completa. Proceso IEEE CVPRW 2017.
pdf "> http://perceptual.mpi-inf.mpg.de/files/2017/05/zhang_cvprw2017.pdf
Video de demostración :
Fuente de la historia :
Materiales proporcionados por Universidad de Saarland . Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :