Podemos escuchar hechos de Siri o Alexa, o instrucciones de Google Maps o Waze, pero ¿permitiríamos que un agente virtual habilitado por inteligencia artificial ayude a mediar en el conflicto entre los miembros del equipo? Un nuevo estudio dice que aún no.
Investigadores de la USC y la Universidad de Denver crearon una simulación en la que un equipo de tres personas fue apoyado por un avatar de agente virtual en la pantalla en una misión diseñada para garantizar el fracaso y provocar conflictos. El estudio fue diseñado para observar virtualagentes como mediadores potenciales para mejorar la colaboración del equipo durante la mediación de conflictos.
¿Confesarles? Sí. Pero en el calor del momento, ¿escucharemos a los agentes virtuales?
Si bien algunos de los investigadores Gale Lucas y Jonathan Gratch de la Ingeniería de la Escuela Viterbi de la USC y el Instituto de Tecnologías Creativas de la USC que contribuyeron a este estudio, habían encontrado previamente que las interacciones humanas uno a uno con un terapeuta de agente virtual produjeron másconfesiones, en este estudio "Mediación de conflictos en equipo humano-máquina: uso de un agente virtual para apoyar la planificación de la misión y el interrogatorio", los miembros del equipo tenían menos probabilidades de comprometerse con un agente virtual masculino llamado "Chris" cuando surgía un conflicto.
Los miembros participantes del equipo no abordaron físicamente el dispositivo como hemos visto a los humanos atacar a los robots en las publicaciones virales de las redes sociales, sino que estuvieron menos comprometidos y menos propensos a escuchar los comentarios del agente virtual una vez que se produjo un fallo y surgieron conflictos entremiembros del equipo.
El estudio se realizó en un entorno de academia militar en el que se diseñaron 27 escenarios para probar cómo el equipo que incluía un agente virtual reaccionaría ante el fracaso y la garantía del conflicto. El agente virtual no fue ignorado de ninguna manera. El estudio encontró quelos equipos respondieron socialmente al agente virtual durante la planificación de la misión que se les asignó asintiendo, sonriendo y reconociendo la aportación del agente virtual agradeciéndole, pero cuanto más progresaba el ejercicio, su compromiso con el agente virtual disminuía.los participantes no culparon completamente al agente virtual por su fracaso.
"La cohesión del equipo cuando se realizan tareas complejas juntas es un factor muy complejo e importante", dice el autor principal, Kerstin Haring, profesor asistente de ciencias de la computación en la Universidad de Denver.
"Nuestros resultados muestran que los agentes virtuales y los robots potencialmente sociales podrían ser un buen mediador de conflictos en todo tipo de equipos. Será muy interesante descubrir las intervenciones y las respuestas sociales para finalmente integrar perfectamente agentes virtuales en equipos humanos para hacerlosDesempeñar mejor."
Gale Lucas, coautora del estudio, profesora asistente de investigación en ciencias de la computación de la USC e investigadora del Instituto de Tecnologías Creativas, agrega que algunos comentarios de los participantes del estudio indican que percibieron que los agentes virtuales son neutrales e imparciales.desea continuar el trabajo para ver si los agentes virtuales se pueden aplicar "para ayudarnos a tomar mejores decisiones" y presionar "qué se necesita para que confiemos en los agentes virtuales".
Si bien este estudio se realizó en una academia militar con estructuras particulares, los investigadores esperan desarrollar este proyecto para mejorar los procesos del equipo en todo tipo de entornos de trabajo.
"Mediación de conflictos en equipo humano-máquina: uso de un agente virtual para apoyar la planificación de la misión y el interrogatorio" por Kerstin S. Haring, Jessica Tobias, Justin Waligora, Elizabeth Phillips, Nathan L. Tenhundfeld, Gale Lucas, Jonathan Gratch, Ewart J. de Visser y Chad C. Tossell se presentarán en el RO-MAN, la 28a Conferencia Internacional de IEEE sobre Robótica y Comunicación Interactiva Humana el 15 de octubre en Nueva Delhi, India.
Fuente de la historia :
Materiales proporcionado por Universidad del Sur de California . Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :