¿Qué se necesita para que un humano confíe en un robot? Eso es lo que los investigadores del Ejército están descubriendo en un nuevo estudio sobre cómo los humanos y los robots trabajan juntos.
La investigación sobre el equipo de agentes humanos, o HAT, ha examinado cómo la transparencia de los agentes, como robots, vehículos no tripulados o agentes de software, influye en la confianza humana, el rendimiento de la tarea, la carga de trabajo y las percepciones del agente. La transparencia del agente se refiere asu capacidad de transmitir a los humanos su intención, proceso de razonamiento y planes futuros.
Una nueva investigación dirigida por el Ejército encuentra que la confianza humana en los robots disminuye después de que el robot comete un error, incluso cuando es transparente con su proceso de razonamiento. El documento, "Transparencia y fiabilidad del agente en la interacción humano-robot: la influencia en la confianza del usuarioy fiabilidad percibida ", se publicó en la edición de agosto de Transacciones IEEE en sistemas hombre-máquina .
Hasta la fecha, la investigación se ha centrado en gran medida en HAT con agentes inteligentes perfectamente confiables, lo que significa que los agentes no cometen errores, pero este es uno de los pocos estudios que ha explorado cómo interactúa la transparencia del agente con la confiabilidad del agente. En este último estudio, los humanos presenciaron que un robot cometió un error, y los investigadores se centraron en si los humanos percibían que el robot era menos confiable, incluso cuando el humano recibió información sobre el proceso de razonamiento del robot.
"Comprender cómo el comportamiento del robot influye en sus compañeros humanos es crucial para el desarrollo de equipos humanos-robots efectivos, así como para el diseño de interfaces y métodos de comunicación entre los miembros del equipo", dijo la Dra. Julia Wright, investigadora principal de este proyectoe investigador en el Laboratorio de Investigación del Ejército del Comando de Desarrollo de Capacidades de Combate del Ejército de los EE. UU., también conocido como ARL ".informar el trabajo de psicólogos, robotistas, ingenieros y diseñadores de sistemas que están trabajando para facilitar una mejor comprensión entre humanos y agentes autónomos en el esfuerzo de hacer compañeros de equipo autónomos en lugar de simplemente herramientas.
Esta investigación fue un esfuerzo conjunto entre ARL y el Instituto de Simulaciones y Capacitación de la Universidad de Florida Central, y es el tercer y último estudio en el proyecto de Miembro del Escuadrón Autónomo ASM, patrocinado por el Piloto de Investigación de Autonomía de la Oficina del Secretario de DefensaIniciativa. El ASM es un pequeño robot terrestre que interactúa y se comunica con un escuadrón de infantería.
Estudios previos de ASM investigaron cómo un robot se comunicaría con un compañero de equipo humano. Utilizando el modelo de Transparencia del Agente basado en la conciencia de la situación como guía, se exploraron varios métodos de visualización para transmitir los objetivos, intenciones, razonamientos, limitaciones y resultados proyectados del agente ySe desarrolló un módulo iconográfico de un vistazo basado en estos primeros hallazgos del estudio, y luego se utilizó en estudios posteriores para explorar la eficacia de la transparencia del agente en HAT.
Los investigadores llevaron a cabo este estudio en un entorno simulado, en el que los participantes observaron un equipo de Soldados de agentes humanos, que incluía el ASM, atravesando un curso de capacitación. La tarea de los participantes era monitorear al equipo y evaluar al robot. El robot Soldadoel equipo encontró varios eventos a lo largo del curso y respondió en consecuencia. Mientras que los soldados siempre respondieron correctamente al evento, ocasionalmente el robot entendió mal la situación, lo que condujo a acciones incorrectas. La cantidad de información que el robot compartió varió entre ensayos. Mientras que el robot siempre explicó suacciones, las razones detrás de sus acciones y el resultado esperado de sus acciones, en algunos ensayos el robot también compartió el razonamiento detrás de sus decisiones, su lógica subyacente. Los participantes vieron múltiples equipos de Soldado-robot, y se compararon sus evaluaciones de los robots.
El estudio encontró que, independientemente de la transparencia del robot para explicar su razonamiento, la fiabilidad del robot fue el factor determinante final para influir en las proyecciones de los participantes sobre la fiabilidad futura del robot, la confianza en el robot y las percepciones del robot. Es decir, despuéslos participantes presenciaron un error, continuaron calificando la confiabilidad del robot más baja, incluso cuando el robot no cometió ningún error posterior. Si bien estas evaluaciones mejoraron lentamente con el tiempo, siempre y cuando el robot no cometiera más errores, la confianza de los participantes en sus propias evaluaciones dela fiabilidad del robot se mantuvo baja durante el resto de las pruebas, en comparación con los participantes que nunca vieron un error. Además, los participantes que presenciaron un error del robot informaron una menor confianza en el robot, en comparación con aquellos que nunca presenciaron un error del robot.
Se encontró que aumentar la transparencia del agente mejora la confianza de los participantes en el robot, pero solo cuando el robot estaba recopilando o filtrando información. Esto podría indicar que compartir información en profundidad puede mitigar algunos de los efectos de la automatización poco confiable para tareas específicas, WrightAdemás, los participantes calificaron al robot poco confiable como menos animado, agradable, inteligente y seguro que el robot confiable.
"Estudios anteriores sugieren que el contexto es importante para determinar la utilidad de la información de transparencia", dijo Wright. "Necesitamos comprender mejor qué tareas requieren una comprensión más profunda del razonamiento del agente y cómo discernir qué implicaría esa profundidad".La investigación futura debería explorar formas de entregar información de transparencia basada en los requisitos de tareas ".
Fuente de la historia :
Materiales proporcionados por Laboratorio de investigación del ejército de EE. UU. . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :