Se basa en un sensor de profundidad que rastrea los movimientos del pulgar y el índice en la parte posterior de la mano. De esta manera, no solo se pueden controlar los relojes inteligentes, sino también los teléfonos inteligentes, televisores inteligentes y dispositivos para la realidad aumentada y virtual.
Se llaman "Apple Watch Series 2", "LG Watch", "Samsung GEAR S3" o "Moto 360 2nd Gen", pero todos tienen el mismo problema. "Cada nueva generación de productos tiene mejores pantallas, mejores procesadores", mejores cámaras y nuevos sensores, pero con respecto a la entrada, las limitaciones persisten ", explica Srinath Sridhar, investigadora del grupo de Gráficos, Visión y Video del Instituto Max Planck de Informática.
Junto con Christian Theobalt, jefe del grupo de Gráficos, Visión y Video en MPI, Anders Markussen y Sebastian Boring en la Universidad de Copenhague y Antti Oulasvirta en la Universidad de Aalto en Finlandia, Srinath Sridhar ha desarrollado un método de entrada que solo requiere unpequeña cámara para rastrear las yemas de los dedos en el aire, y tocar y colocar los dedos en el dorso de la mano. Esta combinación permite interacciones más expresivas que cualquier técnica de detección previa.
Con respecto al hardware, el prototipo, que los investigadores han denominado "WatchSense", requiere solo un sensor de profundidad, una versión mucho más pequeña del conocido controlador de juegos "Kinect" de la consola de videojuegos Xbox 360. Con WatchSense, la profundidadEl sensor se usa en el antebrazo del usuario, a unos 20 cm del reloj. Como una especie de cámara 3D, captura los movimientos del pulgar y el índice, no solo en el dorso de la mano sino también en el espacio que se encuentra por encima.El software desarrollado por los investigadores reconoce la posición y el movimiento de los dedos dentro de la imagen 3D, lo que permite al usuario controlar aplicaciones en teléfonos inteligentes u otros dispositivos ". Los sensores de profundidad disponibles actualmente no caben dentro de un reloj inteligente, pero por la tendencia está claroque en el futuro cercano, los sensores de profundidad más pequeños se integrarán en los relojes inteligentes ", dice Sridhar.
Pero esto no es todo lo que se requiere. Según Sridhar, con su sistema de software los científicos también tuvieron que resolver los desafíos de manejar las irregularidades del dorso de la mano y el hecho de que los dedos pueden ocluirse entre sí cuando se mueven"Lo más importante es que no solo podemos reconocer los dedos, sino también distinguirlos", explica Sridhar, "lo que nadie más había logrado hacer antes en un factor de forma ponible. Ahora podemos hacer esto incluso en tiempo real. "El software reconoce las posiciones exactas del pulgar y el índice en la imagen 3D del sensor de profundidad, porque los investigadores lo entrenaron para hacerlo mediante aprendizaje automático. Además, los investigadores han probado con éxito su prototipo en combinación con varios dispositivos móvilesdispositivos y en varios escenarios ". Los teléfonos inteligentes se pueden operar con uno o más dedos en la pantalla, pero no usan el espacio encima. Si ambos se combinan, esto permite formas de interacción previamente imposiblesction ", explica Sridhar.Él y sus colegas pudieron demostrar que con WatchSense, en un programa de música, se podía ajustar el volumen y seleccionar una nueva canción más rápidamente de lo que era posible con la aplicación de Android de un teléfono inteligente.Los investigadores también probaron WatchSense para tareas en realidad virtual y aumentada, en una aplicación de mapas, y lo usaron para controlar una gran pantalla externa.Los estudios preliminares mostraron que WatchSense fue más satisfactorio para cada caso que las pantallas táctiles convencionales.Sridhar confía en que "necesitamos algo como WatchSense siempre que queramos ser productivos mientras nos movemos. WatchSense es el primero en habilitar la entrada expresiva para dispositivos mientras estamos en movimiento".
A partir del 6 de mayo, los investigadores presentarán WatchSense en la "Conferencia sobre Factores Humanos en Computación" o CHI para abreviar, que esta vez tiene lugar en la ciudad de Denver en los Estados Unidos.
Encuentre más información en: http://handtracker.mpi-inf.mpg.de/projects/WatchSense/
Fuente de la historia :
Materiales proporcionados por Universidad de Saarland . Nota: El contenido puede ser editado por estilo y longitud.
Cite esta página :