Los robots blandos pueden no estar en contacto con los sentimientos humanos, pero están mejorando para sentir el contacto humano.
Los investigadores de la Universidad de Cornell han creado un método de bajo costo para que los robots blandos y deformables detecten una variedad de interacciones físicas, desde palmaditas hasta puñetazos y abrazos, sin depender en absoluto del tacto. En cambio, una cámara USB ubicada dentro del robot captura elsombrea los movimientos de los gestos con las manos en la piel del robot y los clasifica con un software de aprendizaje automático.
El artículo del grupo, "ShadowSense: Detectando el toque humano en un robot social usando la clasificación de imágenes de sombras", publicado en Actas de la Association for Computing Machinery sobre tecnologías interactivas, móviles, portátiles y ubicuas . El autor principal del artículo es el estudiante de doctorado, Yuhan Hu.
La nueva tecnología ShadowSense es el último proyecto del Laboratorio de Colaboración y Compañerismo Humano-Robot, dirigido por el autor principal del artículo, Guy Hoffman, profesor asociado en la Escuela de Ingeniería Mecánica y Aeroespacial Sibley.
La tecnología se originó como parte de un esfuerzo para desarrollar robots inflables que pudieran guiar a las personas a un lugar seguro durante las evacuaciones de emergencia. Un robot de este tipo debería poder comunicarse con los humanos en condiciones y entornos extremos. Imagínese un robot que conduce físicamente a alguien por unPasillo ruidoso y lleno de humo al detectar la presión de la mano de la persona.
En lugar de instalar una gran cantidad de sensores de contacto, que agregarían peso y cableado complejo al robot, y sería difícil de incrustar en una piel deformada, el equipo adoptó un enfoque contrario a la intuición. Para medir el tacto,miró a la vista.
"Al colocar una cámara dentro del robot, podemos inferir cómo la persona la toca y cuál es la intención de la persona con solo mirar las imágenes de sombras", dijo Hu. "Creemos que hay un potencial interesante allí, porque haymuchos robots sociales que no pueden detectar los gestos táctiles ".
El robot prototipo consiste en una vejiga inflable suave de piel de nailon estirada alrededor de un esqueleto cilíndrico, de aproximadamente cuatro pies de altura, que está montado sobre una base móvil. Debajo de la piel del robot hay una cámara USB, que se conecta a una computadora portátil.Los investigadores desarrollaron un algoritmo basado en redes neuronales que utiliza datos de entrenamiento previamente registrados para distinguir entre seis gestos táctiles: tocar con la palma, golpear, tocar con las dos manos, abrazar, señalar y no tocar en absoluto, con una precisión de 87,5al 96%, dependiendo de la iluminación.
El robot se puede programar para responder a ciertos toques y gestos, como rodar o emitir un mensaje a través de un altavoz. Y la piel del robot tiene el potencial de convertirse en una pantalla interactiva.
Al recopilar suficientes datos, un robot podría ser entrenado para reconocer un vocabulario de interacciones aún más amplio, personalizado para adaptarse a la tarea del robot, dijo Hu.
El robot ni siquiera tiene que ser un robot. La tecnología ShadowSense se puede incorporar a otros materiales, como globos, convirtiéndolos en dispositivos sensibles al tacto.
Además de proporcionar una solución simple a un desafío técnico complicado y hacer que los robots sean más fáciles de usar para arrancar, ShadowSense ofrece una comodidad que es cada vez más rara en estos tiempos de alta tecnología: privacidad.
"Si el robot solo puede verte en la forma de tu sombra, puede detectar lo que estás haciendo sin tomar imágenes de alta fidelidad de tu apariencia", dijo Hu. "Eso te da un filtro físico y protección, y proporcionabienestar psicológico."
La investigación fue apoyada por la Iniciativa Robótica Nacional de la National Science Foundation.
Fuente de la historia :
Materiales proporcionado por Universidad de Cornell . Original escrito por David Nutt. Nota: el contenido se puede editar por estilo y longitud.
Referencia de la revista :
cite esta página :