Los robots autónomos pueden inspeccionar las plantas de energía nuclear, limpiar los derrames de petróleo en el océano, acompañar a los aviones de combate al combate y explorar la superficie de Marte.
Sin embargo, a pesar de todos sus talentos, los robots aún no pueden hacer una taza de té.
Esto se debe a que tareas como encender la estufa, buscar la tetera y encontrar la leche y el azúcar requieren habilidades de percepción que, para la mayoría de las máquinas, siguen siendo una fantasía.
Entre ellos está la capacidad de dar sentido a los objetos tridimensionales. Si bien es relativamente sencillo para los robots "ver" objetos con cámaras y otros sensores, interpretar lo que ven, desde un solo vistazo, es más difícil.
El estudiante graduado de la Universidad de Duke, Ben Burchfiel, dice que los robots más sofisticados del mundo aún no pueden hacer lo que la mayoría de los niños hacen automáticamente, pero él y sus colegas pueden estar más cerca de una solución.
Burchfiel y su asesor de tesis George Konidaris, ahora profesor asistente de ciencias de la computación en la Universidad de Brown, han desarrollado una nueva tecnología que permite a las máquinas dar sentido a los objetos tridimensionales de una manera más rica y más humana.
Un robot que limpia los platos de una mesa, por ejemplo, debe poder adaptarse a una enorme variedad de cuencos, platos y platos de diferentes tamaños y formas, desarreglados en una superficie desordenada.
Los humanos pueden echar un vistazo a un nuevo objeto e intuitivamente saber qué es, si está al revés, al revés o de lado, a la vista o parcialmente oculto por otros objetos.
Incluso cuando un objeto está parcialmente oculto, completamos mentalmente las partes que no podemos ver.
Su algoritmo de percepción de robot puede adivinar simultáneamente qué es un nuevo objeto y cómo está orientado, sin examinarlo desde múltiples ángulos primero. También puede "imaginar" cualquier parte que esté fuera de la vista.
Un robot con esta tecnología no necesitaría ver cada lado de una tetera, por ejemplo, para saber que probablemente tiene un mango, una tapa y un pico, y si está sentado en posición vertical o fuera de lugar en la estufa.
Los investigadores dicen que su enfoque, que presentaron el 12 de julio en la Conferencia de Robótica: Ciencia y Sistemas 2017 en Cambridge, Massachusetts, comete menos errores y es tres veces más rápido que los mejores métodos actuales.
Este es un paso importante hacia los robots que funcionan junto a los humanos en los hogares y otros entornos del mundo real, que son menos ordenados y predecibles que el entorno altamente controlado del laboratorio o el piso de la fábrica, dijo Burchfiel.
Con su marco, el robot recibe un número limitado de ejemplos de entrenamiento y los usa para generalizar a nuevos objetos.
"No es práctico suponer que un robot tiene un modelo tridimensional detallado de cada objeto posible que pueda encontrar, de antemano", dijo Burchfiel.
Los investigadores entrenaron su algoritmo en un conjunto de datos de aproximadamente 4,000 escaneos tridimensionales completos de objetos comunes del hogar: una variedad de bañeras, camas, sillas, escritorios, tocadores, monitores, mesitas de noche, sofás, mesas y baños.
Cada escaneo 3D se convirtió en decenas de miles de pequeños cubos, o vóxeles, apilados uno encima del otro como bloques LEGO para que sean más fáciles de procesar.
El algoritmo aprendió categorías de objetos combinando ejemplos de cada uno y descubriendo cómo varían y cómo permanecen iguales, utilizando una versión de una técnica llamada análisis probabilístico de componentes principales.
Cuando un robot ve algo nuevo, por ejemplo, una litera, no tiene que examinar todo su catálogo mental para encontrar una coincidencia. Aprende, a partir de ejemplos anteriores, qué características tienden a tener las camas.
Basado en ese conocimiento previo, tiene el poder de generalizar como lo haría una persona: entender que dos objetos pueden ser diferentes, pero compartir propiedades que los hacen a ambos un tipo particular de muebles.
Para probar el enfoque, los investigadores introdujeron el algoritmo 908 nuevos ejemplos tridimensionales de los mismos 10 tipos de artículos para el hogar, vistos desde la parte superior.
Desde este punto de vista único, el algoritmo adivinó correctamente cuáles eran la mayoría de los objetos y cuáles deberían ser sus formas tridimensionales generales, incluidas las partes ocultas, aproximadamente el 75 por ciento del tiempo, en comparación con poco más del 50 por ciento para el estadoalternativa de última generación.
También fue capaz de reconocer objetos que fueron rotados de varias maneras, lo que los mejores enfoques competitivos no pueden hacer.
Si bien el sistema es razonablemente rápido, todo el proceso dura aproximadamente un segundo, todavía está muy lejos de la visión humana, dijo Burchfiel.
Por un lado, tanto su algoritmo como sus métodos anteriores fueron engañados fácilmente por objetos que, desde ciertas perspectivas, tienen una forma similar. Pueden ver una tabla desde arriba y confundirla con un tocador.
"En general, cometemos un error un poco menos del 25 por ciento del tiempo, y la mejor alternativa comete un error casi la mitad del tiempo, por lo que es una gran mejora", dijo Burchfiel. "Pero aún no está listopara mudarse a su casa. No quiere poner una almohada en el lavavajillas "
Ahora el equipo está trabajando para ampliar su enfoque para permitir que los robots distingan entre miles de tipos de objetos a la vez.
"Los investigadores han estado enseñando a los robots a reconocer objetos tridimensionales durante un tiempo", dijo Burchfield. Lo nuevo, explicó, es la capacidad de reconocer algo y completar los puntos ciegos en su campo de visión, para reconstruirlas partes que no puede ver
"Eso tiene el potencial de ser invaluable en muchas aplicaciones robóticas", dijo Burchfiel.
Fuente de la historia :
Materiales proporcionado por Universidad de Duke . Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :