Universidad de California, Berkeley, investigadores han desarrollado una tecnología de aprendizaje robótico que permite a los robots imaginar el futuro de sus acciones para que puedan descubrir cómo manipular objetos que nunca antes habían encontrado. En el futuro, esta tecnología podría ayudar aconducir automóviles anticipa eventos futuros en la carretera y produce asistentes robóticos más inteligentes en los hogares, pero el prototipo inicial se enfoca en aprender habilidades manuales simples completamente a partir del juego autónomo.
Con esta tecnología, llamada previsión visual, los robots pueden predecir lo que verán sus cámaras si realizan una secuencia particular de movimientos. Estas imaginaciones robóticas todavía son relativamente simples por ahora, predicciones hechas solo unos segundos en el futuro, peroson suficientes para que el robot descubra cómo mover objetos sobre una mesa sin molestar obstáculos. Fundamentalmente, el robot puede aprender a realizar estas tareas sin la ayuda de los humanos o sin conocimientos previos sobre física, su entorno o qué son los objetos.Esto se debe a que la imaginación visual se aprende completamente desde cero a partir de una exploración desatendida y sin supervisión, donde el robot juega con objetos en una mesa. Después de esta fase de juego, el robot construye un modelo predictivo del mundo y puede usar este modelo para manipular nuevos objetos.que no ha visto antes.
"De la misma manera que podemos imaginar cómo nuestras acciones moverán los objetos en nuestro entorno, este método puede permitir que un robot visualice cómo los diferentes comportamientos afectarán el mundo que lo rodea", dijo Sergey Levine, profesor asistente en el Departamento de Berkeley.de Ingeniería Eléctrica y Ciencias de la Computación, cuyo laboratorio desarrolló la tecnología. "Esto puede permitir la planificación inteligente de habilidades altamente flexibles en situaciones complejas del mundo real".
El equipo de investigación realizará una demostración de la tecnología de previsión visual en la conferencia de Sistemas de procesamiento de información neuronal en Long Beach, California, el 5 de diciembre.
En el núcleo de este sistema se encuentra una tecnología de aprendizaje profundo basada en la predicción de video recurrente convolucional o advección neuronal dinámica ADN. Los modelos basados en ADN predicen cómo los píxeles de una imagen se moverán de un fotograma al siguiente en función de laLas mejoras recientes en esta clase de modelos, así como las capacidades de planificación mucho mejoradas, han permitido el control robótico basado en la predicción de video para realizar tareas cada vez más complejas, como deslizar juguetes alrededor de obstáculos y reposicionar múltiples objetos.
"En ese pasado, los robots han aprendido habilidades con un supervisor humano que los ayuda y proporciona comentarios. Lo que hace que este trabajo sea emocionante es que los robots pueden aprender una variedad de habilidades de manipulación de objetos visuales por su cuenta", dijo Chelsea Finn, doctoraestudiante en el laboratorio de Levine e inventor del modelo de ADN original.
Con la nueva tecnología, un robot empuja objetos sobre una mesa, luego usa el modelo de predicción aprendido para elegir movimientos que moverán un objeto a la ubicación deseada. El robot usa el modelo aprendido de las observaciones de la cámara sin procesar para aprender a evitar obstáculos.y empujar objetos alrededor de las obstrucciones.
"Los seres humanos aprenden habilidades de manipulación de objetos sin ningún maestro a través de millones de interacciones con una variedad de objetos durante su vida. Hemos demostrado que es posible construir un sistema robótico que también aprovecha grandes cantidades de datos recopilados de forma autónoma para aprender habilidades de manipulación ampliamente aplicables, específicamente habilidades para empujar objetos ", dijo Frederik Ebert, un estudiante graduado en el laboratorio de Levine que trabajó en el proyecto.
Dado que el control a través de la predicción de video se basa solo en observaciones que el robot puede recopilar de forma autónoma, como imágenes de la cámara, el método resultante es general y de amplia aplicación. A diferencia de los métodos convencionales de visión por computadora, que requieren que los humanos etiqueten manualmente miles deo incluso millones de imágenes, la construcción de modelos de predicción de video solo requiere video sin anotaciones, que el robot puede recopilar de forma totalmente autónoma. De hecho, los modelos de predicción de video también se han aplicado a conjuntos de datos que representan todo, desde actividades humanas hasta conducción, con resultados convincentes.
"Los niños pueden aprender sobre su mundo jugando con juguetes, moviéndolos, agarrándolos, etc.. Nuestro objetivo con esta investigación es permitir que un robot haga lo mismo: aprender cómo funciona el mundo a través de la interacción autónoma,", Dijo Levine." Las capacidades de este robot aún son limitadas, pero sus habilidades se aprenden de forma totalmente automática y le permiten predecir interacciones físicas complejas con objetos que nunca antes había visto basándose en patrones de interacción previamente observados ".
Los científicos de Berkeley continúan investigando el control a través de la predicción de video, enfocándose en mejorar aún más la predicción de video y el control basado en la predicción, así como en el desarrollo de métodos más sofisticados mediante los cuales los robots pueden recopilar datos de video más enfocados, para tareas complejas como la selección ycolocar objetos y manipular objetos blandos y deformables como tela o cuerda, y montaje.
Fuente de la historia :
Materiales proporcionado por Universidad de California - Berkeley . Original escrito por Brett Israel. Nota: el contenido se puede editar por estilo y longitud.
cite esta página :