Tres personas y un robot forman un equipo que juega un juego. El robot comete un error y le cuesta al equipo una ronda. Como cualquier buen compañero de equipo, reconoce el error.
"Lo siento, muchachos, cometí el error esta ronda", dice. "Sé que puede ser difícil de creer, pero los robots también cometen errores".
Este escenario ocurrió varias veces durante un estudio dirigido por Yale de los efectos de los robots en las interacciones entre humanos.
El estudio, que se publicará el 9 de marzo en el Actas de la Academia Nacional de Ciencias mostró que los humanos en equipos que incluían un robot que expresaba vulnerabilidad se comunicaban más entre sí y luego informaron que tenían una experiencia grupal más positiva que las personas que se unieron con robots silenciosos o con robots que hicieron declaraciones neutrales, como recitar la puntuación del juego.
"Sabemos que los robots pueden influir en el comportamiento de los humanos con los que interactúan directamente, pero la forma en que los robots afectan la forma en que los humanos se relacionan entre sí es menos conocida", dijo Margaret L. Traeger, candidata a doctorado en sociología enel Instituto de Ciencias de la Red de Yale YINS y el autor principal del estudio: "Nuestro estudio muestra que los robots pueden afectar las interacciones de persona a persona".
Debido a que los robots sociales se están volviendo cada vez más frecuentes en la sociedad humana, dijo, la gente los encuentra en tiendas, hospitales y otros lugares cotidianos. Esto hace que sea importante entender cómo moldean el comportamiento humano.
"En este caso", dijo Traeger, "mostramos que los robots pueden ayudar a las personas a comunicarse de manera más efectiva como equipo".
Los investigadores realizaron un experimento en el que 153 personas se dividieron en 51 grupos compuestos por tres humanos y un robot. Cada grupo jugó un juego basado en tabletas en el que los miembros trabajaron juntos para construir las rutas ferroviarias más eficientes en 30 rondas. Los grupos fueronasignados a una de tres condiciones caracterizadas por diferentes tipos de comportamiento del robot: al final de cada ronda, los robots permanecieron en silencio, emitieron una declaración neutral relacionada con la tarea como el puntaje o el número de rondas completadas o expresaron vulnerabilidad a través deuna broma, una historia personal o al reconocer un error; todos los robots ocasionalmente pierden una ronda.
La gente se asoció con robots que hicieron declaraciones vulnerables y pasaron aproximadamente el doble de tiempo hablando entre ellos durante el juego, e informaron que disfrutaban más de la experiencia en comparación con las personas de los otros dos tipos de grupos, según el estudio.
La conversación entre los humanos aumentó más durante el juego cuando los robots hicieron declaraciones vulnerables que cuando hicieron declaraciones neutrales. La conversación entre los humanos se distribuyó de manera más uniforme cuando el robot era vulnerable en lugar de silencioso.
El experimento también mostró una participación verbal más equitativa entre los miembros del equipo en grupos con robots vulnerables y neutrales que entre los miembros en grupos con robots silenciosos, lo que sugiere que la presencia de un robot que habla alienta a las personas a hablar entre ellos de una manera más uniformemanera entregada
"Estamos interesados en cómo cambiará la sociedad a medida que agreguemos formas de inteligencia artificial a nuestro medio", dijo Nicholas A. Christakis, profesor de ciencias sociales y naturales de Sterling. "A medida que creamos sistemas sociales híbridos de humanos y máquinas,necesitamos evaluar cómo programar los agentes robóticos para que no corroan la forma en que nos tratamos ".
Comprender la influencia social de los robots en los espacios humanos es importante incluso cuando los robots no cumplen una función social intencional, dijo Sarah Strohkorb Sebo, candidata a doctorado en el Departamento de Informática y coautora del estudio.
"Imagine un robot en una fábrica cuya tarea es distribuir piezas a los trabajadores en una línea de montaje", dijo. "Si entrega todas las piezas a una persona, puede crear un entorno social incómodo en el que los demás trabajadores cuestionansi el robot cree que son inferiores en la tarea. Nuestros hallazgos pueden informar el diseño de robots que promueven el compromiso social, la participación equilibrada y las experiencias positivas para las personas que trabajan en equipos ".
Otros coautores del estudio son Brian Scassellati de Yale, profesor de ciencias de la computación, ciencias cognitivas e ingeniería mecánica; y Malte Jung de Cornell, profesor asistente de ciencias de la información.
La investigación fue apoyada por subvenciones de la Fundación Robert Wood Johnson y la Fundación Nacional de Ciencias.
Fuente de la historia :
Materiales proporcionado por Universidad de Yale . Original escrito por Mike Cummings. Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :