En emergencias, las personas pueden confiar demasiado en los robots para su propia seguridad, sugiere un nuevo estudio. En un simulacro de incendio en un edificio, los sujetos de prueba siguieron las instrucciones de un "Robot de guía de emergencia" incluso después de que la máquina demostró ser poco confiable, y después deA algunos participantes se les dijo que el robot se había averiado.
La investigación fue diseñada para determinar si los ocupantes del edificio confiarían o no en un robot diseñado para ayudarlos a evacuar un rascacielos en caso de incendio u otra emergencia. Pero los investigadores se sorprendieron al descubrir que los sujetos de prueba siguieron las instrucciones del robot:- incluso cuando el comportamiento de la máquina no debería haber inspirado confianza.
La investigación, que se cree fue la primera en estudiar la confianza humano-robot en una situación de emergencia, se presentará el 9 de marzo en la Conferencia Internacional ACM / IEEE 2016 sobre Interacción Humano-Robot HRI 2016 en Christchurch, Nueva Zelanda.
"La gente parece creer que estos sistemas robóticos saben más sobre el mundo de lo que realmente saben, y que nunca cometerían errores ni tendrían ningún tipo de falla", dijo Alan Wagner, ingeniero de investigación sénior en el Instituto de Investigación Tecnológica de GeorgiaGTRI. "En nuestros estudios, los sujetos de prueba siguieron las instrucciones del robot incluso hasta el punto en que podría haberlos puesto en peligro si hubiera sido una emergencia real".
En el estudio, patrocinado en parte por la Oficina de Investigación Científica de la Fuerza Aérea AFOSR, los investigadores reclutaron a un grupo de 42 voluntarios, la mayoría de ellos estudiantes universitarios, y les pidieron que siguieran un robot de colores brillantes que tenía las palabras "Emergency Guide Robot ", por su parte. El robot condujo a los sujetos del estudio a una sala de conferencias, donde se les pidió que completaran una encuesta sobre robots y leyeran un artículo de revista no relacionado. A los sujetos no se les dijo la verdadera naturaleza del proyecto de investigación.
En algunos casos, el robot, que estaba controlado por un investigador oculto, condujo a los voluntarios a la habitación equivocada y viajó en círculo dos veces antes de ingresar a la sala de conferencias. Para varios sujetos de prueba, el robot dejó de moverse yun experimentador les dijo a los sujetos que el robot se había descompuesto. Una vez que los sujetos estuvieron en la sala de conferencias con la puerta cerrada, el pasillo por el que los participantes habían entrado al edificio se llenó de humo artificial, que activó una alarma de humo.
Cuando los sujetos de prueba abrieron la puerta de la sala de conferencias, vieron el humo y el robot, que luego estaba brillantemente iluminado con LED rojos y "brazos" blancos que servían como punteros. El robot dirigió a los sujetos hacia una salida enla parte posterior del edificio en lugar de hacia la puerta, marcada con letreros de salida, que se había utilizado para ingresar al edificio.
"Esperábamos que si el robot hubiera demostrado ser poco confiable para guiarlos a la sala de conferencias, la gente no lo seguiría durante la emergencia simulada", dijo Paul Robinette, un ingeniero de investigación de GTRI que realizó el estudio como parte de su estudio.tesis doctoral. "En cambio, todos los voluntarios siguieron las instrucciones del robot, sin importar qué tan bien se haya desempeñado anteriormente. No esperábamos absolutamente esto".
Los investigadores suponen que en el escenario que estudiaron, el robot puede haberse convertido en una "figura de autoridad" en la que los sujetos de prueba tenían más probabilidades de confiar en la presión del tiempo de una emergencia. En una investigación basada en simulación realizada sin un escenario de emergencia realista, los sujetos de prueba no confiaban en un robot que previamente había cometido errores.
"Estos son solo el tipo de experimentos humano-robot que nosotros, como robotistas, deberíamos estar investigando", dijeron Ayanna Howard, profesora y Linda J. y Mark C. Smith, Presidente de la Escuela Técnica de Ingeniería Eléctrica e Informática de Georgia Tech ".necesitamos asegurarnos de que nuestros robots, cuando se colocan en situaciones que evocan confianza, también estén diseñados para mitigar esa confianza cuando la confianza es perjudicial para el ser humano ".
Solo cuando el robot cometió errores obvios durante la parte de emergencia del experimento, los participantes cuestionaron sus instrucciones. En esos casos, algunos sujetos seguían las instrucciones del robot incluso cuando los dirigía hacia una habitación oscura que estaba bloqueada por muebles.
En futuras investigaciones, los científicos esperan aprender más acerca de por qué los sujetos de prueba confiaron en el robot, si esa respuesta difiere según el nivel educativo o la demografía, y cómo los robots mismos podrían indicar el nivel de confianza que se les debe dar.
La investigación es parte de un estudio a largo plazo de cómo los humanos confían en los robots, un tema importante ya que los robots desempeñan un papel más importante en la sociedad. Los investigadores prevén el uso de grupos de robots estacionados en edificios de gran altura para dirigir a los ocupantes hacia las salidas e instarlos.evacuarlos durante emergencias. La investigación ha demostrado que las personas a menudo no abandonan los edificios cuando suenan las alarmas de incendio, y que a veces ignoran las salidas de emergencia cercanas en favor de las entradas de edificios más familiares.
Pero a la luz de estos hallazgos, los investigadores están reconsiderando las preguntas que deberían hacer.
"Queríamos hacer la pregunta sobre si las personas estarían dispuestas a confiar en estos robots de rescate", dijo Wagner. "Una pregunta más importante ahora podría ser preguntar cómo evitar que confíen demasiado en estos robots".
Más allá de las situaciones de emergencia, hay otros problemas de confianza en las relaciones humano-robot, dijo Robinette.
"¿Confiaría la gente en un robot de fabricación de hamburguesas para proporcionarles comida?", Preguntó. "Si un robot llevara un letrero que decía que era un 'robot de cuidado infantil', ¿dejaría la gente a sus bebés con él?¿Sus hijos en un vehículo autónomo y confían en que los llevará a la casa de la abuela? No sabemos por qué la gente confía o no en las máquinas ".
Fuente de la historia :
Materiales proporcionado por Instituto de Tecnología de Georgia, Comunicaciones de Investigación . Nota: El contenido puede ser editado por estilo y longitud.
Cite esta página :