Muchos trabajos de fabricación requieren una presencia física para operar maquinaria. Pero, ¿qué pasaría si tales trabajos se pudieran hacer de forma remota? Esta semana, investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial CSAIL del MIT presentaron un sistema de realidad virtual VR que le permite teleoperarun robot usando un auricular Oculus Rift.
El sistema incrusta al usuario en una sala de control de realidad virtual con múltiples pantallas de sensores, haciéndolo sentir como si estuviera dentro de la cabeza del robot. Mediante el uso de gestos, los usuarios pueden hacer coincidir sus movimientos con los del robot para completar varias tareas.
"Un sistema como este podría eventualmente ayudar a los humanos a supervisar robots a distancia", dice el asociado postdoctoral de CSAIL Jeffrey Lipton, autor principal de un documento relacionado sobre el sistema. "Al teleoperar robots desde casa, los trabajadores manuales seríancapaz de teletrabajar y beneficiarse de la revolución de TI tal como lo hacen ahora los trabajadores de cuello blanco "
Los investigadores incluso imaginan que un sistema de este tipo podría ayudar a emplear un número cada vez mayor de videojugadores desempleados mediante puestos de fabricación que "desafían el juego".
El equipo demostró su enfoque de control de VC con el robot humanoide Baxter de Rethink Robotics, pero dijo que el enfoque puede funcionar en otras plataformas de robot y también es compatible con los auriculares HTC Vive.
Lipton co-escribió el documento con la directora de CSAIL Daniela Rus y el investigador Aidan Fay. Presentaron el documento esta semana en la Conferencia Internacional IEEE / RSJ sobre Robots y Sistemas Inteligentes IROS en Vancouver.
Cómo funciona
Tradicionalmente ha habido dos enfoques principales para usar VR para la teleoperación.
En un modelo "directo", la visión del usuario está directamente acoplada al estado del robot. Con estos sistemas, una señal retrasada puede provocar náuseas y dolores de cabeza, y el punto de vista del usuario se limita a una perspectiva.
En el modelo "ciberfísico", el usuario está separado del robot. El usuario interactúa con una copia virtual del robot y el entorno. Esto requiere mucha más información y espacios especializados.
El sistema del equipo CSAIL está a medio camino entre estos dos métodos. Resuelve el problema del retraso, ya que el usuario recibe constantemente comentarios visuales del mundo virtual. También resuelve el problema ciberfísico de ser distinto del robot: una vezel usuario se pone el auricular y se conecta al sistema, se sentirá como si estuviera dentro de la cabeza de Baxter.
El sistema imita el "modelo mental de homúnculo": la idea de que hay un pequeño humano dentro de nuestros cerebros que controla nuestras acciones, visualiza las imágenes que vemos y las comprende para nosotros. Si bien es una idea peculiar para los humanos, para los robotsencaja: "dentro" el robot es un humano en una sala de control, que ve a través de sus ojos y controla sus acciones.
Usando los controladores de Oculus, los usuarios pueden interactuar con los controles que aparecen en el espacio virtual para abrir y cerrar las pinzas de mano para recoger, mover y recuperar elementos. Un usuario puede planificar movimientos en función de la distancia entre el marcador de ubicación del brazo ysu mano mientras mira la exhibición en vivo del brazo.
Para hacer posibles estos movimientos, el espacio del ser humano se mapea en el espacio virtual, y el espacio virtual se mapea en el espacio del robot para proporcionar una sensación de ubicación conjunta.
El sistema también es más flexible en comparación con los sistemas anteriores que requieren muchos recursos. Otros sistemas pueden extraer información 2D de cada cámara, construir un modelo 3D completo del entorno, y luego procesar y volver a mostrar los datos.
En contraste, el enfoque del equipo CSAIL pasa por alto todo eso al tomar las imágenes en 2-D que se muestran a cada ojo. El cerebro humano hace el resto al inferir automáticamente la información en 3-D.
Para probar el sistema, el equipo primero teleoperó a Baxter para realizar tareas simples como recoger tornillos o grapar cables. Luego, los usuarios de prueba teleoperaron el robot para recoger y apilar bloques.
Los usuarios completaron con éxito las tareas a un ritmo mucho más alto en comparación con el modelo "directo". Como era de esperar, los usuarios con experiencia en juegos tenían mucha más facilidad con el sistema.
Probado contra sistemas de última generación, el sistema CSAIL fue mejor para agarrar objetos el 95 por ciento del tiempo y el 57 por ciento más rápido para realizar tareas. El equipo también demostró que el sistema podía pilotar el robot desde cientos de millas de distancia,probándolo en la red inalámbrica de un hotel en Washington, DC para controlar Baxter en el MIT.
"Esta contribución representa un hito importante en el esfuerzo por conectar al usuario con el espacio del robot de una manera intuitiva, natural y efectiva", dice Oussama Khatib, profesor de ciencias de la computación en la Universidad de Stanford que no participó en el documento.
El equipo eventualmente quiere enfocarse en hacer que el sistema sea más escalable, con muchos usuarios y diferentes tipos de robots que pueden ser compatibles con las tecnologías de automatización actuales.
El proyecto fue financiado en parte por Boeing Company y la National Science Foundation.
Video: http://www.youtube.com/watch?list=UUPLAYER_MITCSAIL&time_continue=5&v=4a-W3Od5-t8
Fuente de la historia :
Materiales proporcionados por Instituto de Tecnología de Massachusetts, CSAIL . Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :