Según un equipo de investigadores, la mayoría de las personas agradecería un chatbot que ofrezca respuestas comprensivas o empáticas, pero agregaron que la reacción puede depender de lo cómoda que esté la persona con la idea de una máquina de sentimientos.
En un estudio, los investigadores informaron que las personas preferían recibir respuestas comprensivas y empáticas de un chatbot, una máquina programada para simular una conversación, que recibir una respuesta de una máquina sin emociones, dijo S. Shyam Sundar, James P.Profesor Jimirro de Efectos de Medios y codirector del Laboratorio de Investigación de Efectos de Medios. Las personas expresan simpatía cuando sienten compasión por una persona, mientras que expresan empatía cuando en realidad sienten las mismas emociones de la otra persona, dijo Sundar.
A medida que los proveedores de atención médica buscan formas de reducir costos y mejorar el servicio, agregó que estos hallazgos podrían ayudar a los desarrolladores a crear tecnologías de conversación que alienten a las personas a compartir información sobre sus estados de salud física y mental, por ejemplo.
"Cada vez más, a medida que tenemos más y más chatbots y más agentes de conversación impulsados por la IA en nuestro medio", dijo Sundar. "Y, a medida que más personas comienzan a recurrir a su altavoz inteligente o chatbot en un foro de salud en busca de consejo, opara el apoyo social y emocional, la pregunta es: ¿en qué medida deberían estos chatbots y parlantes inteligentes expresar emociones humanas? "
Si bien las máquinas de hoy no pueden sentir simpatía o empatía, los desarrolladores podrían programar estas señales en la tecnología actual de chatbot y asistente de voz, según los investigadores que informan sus hallazgos en la edición actual de Ciberpsicología, comportamiento y redes sociales .
Sin embargo, los chatbots pueden volverse demasiado personales para algunas personas, dijo Bingjie Liu, un candidato a doctorado en comunicaciones masivas, que trabajó con Sundar en el estudio. Dijo que los participantes del estudio que desconfiaban de las máquinas conscientes indicaron que estaban impresionados por los chatbotsque fueron programados para entregar declaraciones de simpatía y empatía.
"La mayoría de las personas de nuestra muestra realmente no creía en la emoción de la máquina, por lo que, en nuestra interpretación, tomaron esas expresiones de empatía y simpatía como cortesía", dijo Liu. "Cuando miramos a personas que tienen creencias diferentes,sin embargo, descubrimos que las personas que piensan que es posible que las máquinas puedan tener emociones tuvieron reacciones negativas a estas expresiones de simpatía y empatía de los chatbots ".
Los investigadores reclutaron a 88 voluntarios de una universidad y Amazon Mechanical Turk, una plataforma de tareas en línea. Se les pidió a los voluntarios que interactuaran con uno de los cuatro chatbots de servicios de salud en línea diferentes programados para entregar respuestas específicas a una de las cuatro condiciones establecidas por los investigadores: simpatía, dos tipos diferentes de empatía: empatía cognitiva y empatía afectiva, o una condición de control de solo consejo.
En la versión comprensiva, el chatbot respondió con una declaración, como, "Lamento escuchar eso". El chatbot programado para la empatía cognitiva, que reconocía los sentimientos del usuario, podría decir: "Ese problema puede ser bastante inquietante."Un chatbot que expresara empatía afectiva podría responder con una oración que mostrara que la máquina entendió cómo y por qué un usuario sintió lo que sentía, como" Entiendo tu ansiedad por la situación ".
Los investigadores dijeron que la empatía afectiva y la simpatía funcionaban mejor.
"Descubrimos que la empatía cognitiva, en la que la respuesta es un tanto desapegada y se acerca al problema de una manera reflexiva, pero casi antiséptica, no funcionó del todo", dijo Sundar. "Por supuesto, los chatbots y los robots hacen esobastante bien, pero ese es también el estereotipo de las máquinas. Y no parece ser tan efectivo. Lo que parece funcionar mejor es la empatía afectiva, o una expresión de simpatía ".
En un estudio anterior, los investigadores pidieron a los participantes que solo leyeran el guión de la conversación entre un sujeto humano y una máquina. Encontraron efectos similares en el uso de la simpatía y la empatía en los mensajes.
Los investigadores dijeron que la investigación futura podría examinar cómo funcionan las interacciones simpáticas y empáticas para diferentes problemas más allá de la salud y la sexualidad, así como también investigar cómo se sienten las personas si las máquinas y los robots similares a los humanos entregan ese tipo de respuestas.
"Queremos ver si este es un patrón consistente en cómo los humanos reaccionan a las emociones de la máquina", dijo Liu.
Fuente de la historia :
Materiales proporcionado por Estado Penn . Original escrito por Matt Swayne. Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :