Si bien nuestras expresiones faciales juegan un papel muy importante en la generación de confianza, la mayoría de los robots todavía lucen el rostro en blanco y estático de un jugador de póquer profesional. Con el uso cada vez mayor de robots en lugares donde los robots y los humanos necesitan trabajar en estrecha colaboración, desde hogares de ancianospara los almacenes y las fábricas, la necesidad de un robot facial más realista y con mayor capacidad de respuesta es cada vez más urgente.
Interesados durante mucho tiempo en las interacciones entre robots y humanos, los investigadores del Laboratorio de Máquinas Creativas en Columbia Engineering han estado trabajando durante cinco años para crear EVA, un nuevo robot autónomo con un rostro suave y expresivo que responde para coincidir con las expresiones de los humanos cercanos.. La investigación se presentará en la conferencia ICRA el 30 de mayo de 2021, y los planos del robot son de código abierto en Hardware-X abril de 2021.
"La idea de EVA tomó forma hace unos años, cuando mis estudiantes y yo comenzamos a notar que los robots en nuestro laboratorio nos miraban a través de ojos plásticos y saltones", dijo Hod Lipson, profesor de James y Sally Scapa deInnovación Ingeniería Mecánica y director del Laboratorio de Máquinas Creativas.
Lipson observó una tendencia similar en la tienda de comestibles, donde se encontró con robots de reabastecimiento que llevaban insignias con su nombre y, en un caso, vestidos con un gorro acogedor tejido a mano. "La gente parecía estar humanizando a sus colegas robóticos dándoles ojos, una identidad o un nombre ", dijo." Esto nos hizo preguntarnos, si los ojos y la ropa funcionan, ¿por qué no hacer un robot que tenga un rostro humano súper expresivo y receptivo? "
Si bien esto suena simple, crear una cara robótica convincente ha sido un desafío formidable para los especialistas en robótica. Durante décadas, las partes robóticas del cuerpo han estado hechas de metal o plástico duro, materiales que eran demasiado rígidos para fluir y moverse como lo hace el tejido humano.El hardware robótico ha sido igualmente tosco y difícil de trabajar: los circuitos, sensores y motores son pesados, consumen mucha energía y son voluminosos.
La primera fase del proyecto comenzó en el laboratorio de Lipson hace varios años cuando el estudiante de pregrado Zanwar Faraj dirigió un equipo de estudiantes en la construcción de la "maquinaria" física del robot. Construyeron EVA como un busto incorpóreo que se parece mucho al silencioso peroartistas con animación facial del Grupo Blue Man. EVA puede expresar las seis emociones básicas de ira, disgusto, miedo, alegría, tristeza y sorpresa, así como una serie de emociones más matizadas, mediante el uso de "músculos" artificiales es decir, cables ymotores que tiran de puntos específicos de la cara de EVA, imitando los movimientos de los más de 42 pequeños músculos unidos en varios puntos a la piel y los huesos de los rostros humanos.
"El mayor desafío en la creación de EVA fue diseñar un sistema que fuera lo suficientemente compacto como para caber dentro de los confines de un cráneo humano sin dejar de ser lo suficientemente funcional como para producir una amplia gama de expresiones faciales", señaló Faraj.
Para superar este desafío, el equipo se basó en gran medida en la impresión 3D para fabricar piezas con formas complejas que se integraban sin problemas y de manera eficiente con el cráneo de EVA. Después de semanas de tirar de cables para hacer que EVA sonriese, frunciera el ceño o se viera molesto, el equipo notó que EVAEl rostro azul e incorpóreo podía provocar respuestas emocionales de sus compañeros de laboratorio. "Un día estaba ocupándome de mis propios asuntos cuando EVA de repente me dio una gran sonrisa amistosa", recordó Lipson. "Sabía que era puramente mecánico, pero me encontré reflexivamentedevolviéndole la sonrisa "
Una vez que el equipo estuvo satisfecho con la "mecánica" de EVA, comenzaron a abordar la segunda fase principal del proyecto: programar la inteligencia artificial que guiaría los movimientos faciales de EVA. Mientras que los robots animatrónicos realistas se han utilizado en parques temáticos y estudios de cine paraaños, el equipo de Lipson realizó dos avances tecnológicos. EVA utiliza inteligencia artificial de aprendizaje profundo para "leer" y luego reflejar las expresiones en rostros humanos cercanos. Y la capacidad de EVA para imitar una amplia gama de diferentes expresiones faciales humanas se aprende mediante prueba y error observandovideos de sí mismo.
Las actividades humanas más difíciles de automatizar involucran movimientos físicos no repetitivos que tienen lugar en entornos sociales complicados. Boyuan Chen, el estudiante de doctorado de Lipson que dirigió la fase de software del proyecto, rápidamente se dio cuenta de que los movimientos faciales de EVA eran un proceso demasiado complejo pararegirse por conjuntos de reglas predefinidos. Para abordar este desafío, Chen y un segundo equipo de estudiantes crearon el cerebro de EVA utilizando varias redes neuronales de aprendizaje profundo. El cerebro del robot necesitaba dominar dos capacidades: Primero, aprender a usar su propio complejosistema de músculos mecánicos para generar cualquier expresión facial en particular y, en segundo lugar, para saber qué caras hacer "leyendo" las caras de los humanos.
Para enseñarle a EVA cómo se veía su propia cara, Chen y su equipo filmaron horas de imágenes de EVA haciendo una serie de caras aleatorias. Luego, como un humano mirándose a sí mismo en Zoom, las redes neuronales internas de EVA aprendieron a emparejar el movimiento muscular con el video.imágenes de su propio rostro. Ahora que EVA tenía un sentido primitivo de cómo funcionaba su propio rostro conocido como "imagen de sí mismo", utilizó una segunda red para hacer coincidir su propia imagen de sí mismo con la imagen de un rostro humano capturadoen su cámara de video. Después de varios refinamientos e iteraciones, EVA adquirió la capacidad de leer los gestos del rostro humano desde una cámara y de responder reflejando la expresión facial de ese humano.
Los investigadores señalan que EVA es un experimento de laboratorio, y la mímica por sí sola todavía está muy lejos de las formas complejas en las que los humanos se comunican mediante expresiones faciales. Pero estas tecnologías habilitadoras podrían algún día tener aplicaciones beneficiosas en el mundo real. Por ejemplo, los robotscapaz de responder a una amplia variedad de lenguaje corporal humano sería útil en lugares de trabajo, hospitales, escuelas y hogares.
"Existe un límite en la cantidad de personas que podemos relacionarnos emocionalmente con los chatbots basados en la nube o los parlantes de hogares inteligentes sin cuerpo", dijo Lipson. "Nuestros cerebros parecen responder bien a los robots que tienen algún tipo de presencia física reconocible".
Agregó Chen, "Los robots están entrelazados en nuestras vidas en un número creciente de formas, por lo que generar confianza entre humanos y máquinas es cada vez más importante".
Video: http://www.youtube.com/watch?v=STx2HMHJFY8&t=3s
Video: http://www.youtube.com/watch?v=fYURp2OaGn0&t=2s
SITIO WEB DEL PROYECTO: http://www.cs.columbia.edu/~bchen/aiface/
Fuente de la historia :
Materiales proporcionado por Escuela de Ingeniería y Ciencias Aplicadas de la Universidad de Columbia . Nota: el contenido se puede editar por estilo y longitud.
Referencia de la revista :
cite esta página :