Recoger una lata de refresco puede ser una tarea simple para los humanos, pero esta es una tarea compleja para los robots: tiene que localizar el objeto, deducir su forma, determinar la cantidad correcta de fuerza para usar y agarrar elObjeto sin dejar que se deslice. La mayoría de los robots actuales operan únicamente con base en el procesamiento visual, lo que limita sus capacidades. Para realizar tareas más complejas, los robots tienen que estar equipados con un sentido del tacto excepcional y la capacidad de procesar información sensorial rápidamente yinteligentemente
Un equipo de informáticos e ingenieros de materiales de la Universidad Nacional de Singapur NUS ha demostrado recientemente un enfoque emocionante para hacer que los robots sean más inteligentes. Desarrollaron un sistema sensorial integrado de cerebro artificial que imita las redes neuronales biológicas, que pueden funcionar con una potenciaprocesador neuromórfico eficiente, como el chip Loihi de Intel. Este novedoso sistema integra sensores de piel y visión artificiales, equipando a los robots con la capacidad de sacar conclusiones precisas sobre los objetos que están agarrando en función de los datos capturados por los sensores de visión y tacto en tiempo real.hora.
"El campo de la manipulación robótica ha progresado mucho en los últimos años. Sin embargo, fusionar tanto la visión como la información táctil para proporcionar una respuesta altamente precisa en milisegundos sigue siendo un desafío tecnológico. Nuestro trabajo reciente combina nuestras pieles electrónicas ultrarrápidas y nuestros sistemas nerviososcon las últimas innovaciones en detección de visión e IA para robots para que puedan volverse más inteligentes e intuitivos en las interacciones físicas ", dijo el Profesor Asistente Benjamin Tee del Departamento de Ciencia e Ingeniería de Materiales de NUS. Es el co-líder de este proyecto con el Profesor Asistente HaroldSoh del Departamento de Informática de la NUS School of Computing.
Los resultados de este trabajo interdisciplinario se presentaron en la conferencia Robotics: Science and Systems en julio de 2020.
sentido del tacto humano para robots
Permitir un sentido del tacto similar al humano en la robótica podría mejorar significativamente la funcionalidad actual e incluso conducir a nuevos usos. Por ejemplo, en el piso de la fábrica, los brazos robóticos provistos de máscaras electrónicas podrían adaptarse fácilmente a diferentes elementos, utilizando la detección táctil paraIdentifique y sujete objetos desconocidos con la cantidad adecuada de presión para evitar resbalones.
En el nuevo sistema robótico, el equipo de NUS aplicó una piel artificial avanzada conocida como Asynchronous Coded Electronic Skin ACES desarrollada por Asst Prof Tee y su equipo en 2019. Este nuevo sensor detecta toques más de 1,000 veces más rápido que el sensor humanosistema nervioso. También puede identificar la forma, textura y dureza de los objetos 10 veces más rápido que un abrir y cerrar de ojos.
"Hacer un sensor de piel artificial ultrarrápido resuelve aproximadamente la mitad del rompecabezas de hacer que los robots sean más inteligentes. También necesitan un cerebro artificial que finalmente pueda lograr la percepción y el aprendizaje como otra pieza crítica en el rompecabezas", agregó Asst Prof Tee, quien estambién del Instituto NUS para la Innovación y Tecnología en Salud.
Un cerebro humano para robots
Para abrir nuevos caminos en la percepción robótica, el equipo de NUS exploró la tecnología neuromórfica, un área de computación que emula la estructura neural y el funcionamiento del cerebro humano, para procesar datos sensoriales de la piel artificial. Asst Prof Tee y AsstEl profesor Soh es miembro de la Comunidad de Investigación Neuromórfica de Intel INRC, fue una elección natural usar el chip de investigación neuromórfico Loihi de Intel para su nuevo sistema robótico.
En sus experimentos iniciales, los investigadores colocaron una mano robótica con la piel artificial y la usaron para leer braille, pasando los datos táctiles a Loihi a través de la nube para convertir los micro bultos que siente la mano en un significado semántico. Loihi logrómás del 92 por ciento de precisión en la clasificación de las letras Braille, mientras se usa 20 veces menos energía que un microprocesador normal.
El equipo de Asst Prof Soh mejoró las capacidades de percepción del robot al combinar los datos de visión y tacto en una red neuronal con picos. En sus experimentos, los investigadores asignaron a un robot equipado con piel artificial y sensores de visión para clasificar varios contenedores opacos que contienen diferentes cantidades delíquido. También probaron la capacidad del sistema para identificar el deslizamiento rotacional, que es importante para un agarre estable.
En ambas pruebas, la red neuronal que utilizaba datos de visión y tacto fue capaz de clasificar objetos y detectar el deslizamiento de objetos. La clasificación fue un 10% más precisa que un sistema que usaba solo visión. Además, utilizando una técnica desarrollada porEn el equipo del profesor Ash, las redes neuronales podían clasificar los datos sensoriales mientras se acumulaban, a diferencia del enfoque convencional en el que los datos se clasifican después de haber sido recopilados por completo. Además, los investigadores demostraron la eficiencia de la tecnología neuromórfica: Loihi procesó los datos sensoriales.datos un 21 por ciento más rápidos que una unidad de procesamiento de gráficos GPU de alto rendimiento, mientras usa más de 45 veces menos energía.
El profesor Ash compartió: "Estamos entusiasmados con estos resultados. Muestran que un sistema neuromórfico es una pieza prometedora del rompecabezas para combinar múltiples sensores para mejorar la percepción del robot. Es un paso hacia la construcción de robots confiables y de bajo consumo de energía quepuede responder rápida y apropiadamente en situaciones inesperadas "
"Esta investigación de la Universidad Nacional de Singapur ofrece una visión convincente del futuro de la robótica, donde la información se detecta y procesa de una manera basada en eventos que combina múltiples modalidades. El trabajo se suma a un creciente cuerpo de resultados que muestran que la informática neuromórficapuede proporcionar ganancias significativas en latencia y consumo de energía una vez que todo el sistema se rediseña en un paradigma basado en eventos que abarca sensores, formatos de datos, algoritmos y arquitectura de hardware ", dijo Mike Davies, Director del Laboratorio de Computación Neuromórfica de Intel.
Esta investigación fue apoyada por la Oficina del Programa Nacional de I + D de Robótica NR2PO, una configuración que nutre el ecosistema de la robótica en Singapur mediante la financiación de la investigación y el desarrollo I + D para mejorar la preparación de las tecnologías y soluciones de robótica. Consideraciones clave para NR2POLas inversiones en I + D incluyen el potencial para aplicaciones impactantes en el sector público y el potencial para crear capacidades diferenciadas para nuestra industria.
Próximos pasos
En el futuro, Asst Prof Tee y Asst Prof Soh planean desarrollar aún más su novedoso sistema robótico para aplicaciones en las industrias de logística y fabricación de alimentos donde existe una gran demanda de automatización robótica, especialmente en la era posterior a COVID.
Video: http://www.youtube.com/watch?v=08XyaXlxWno&feature=emb_logo
Fuente de la historia :
Materiales proporcionado por Universidad Nacional de Singapur . Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :