Los recientes avances tecnológicos en inteligencia artificial han hecho posible que las máquinas, o bots, pasen como humanos. Un equipo de investigadores dirigido por Talal Rahwan, profesor asociado de Ciencias de la Computación en NYU Abu Dhabi, realizó un experimento para estudiar cómo interactúan las personascon bots que creen que son humanos, y cómo se ven afectadas esas interacciones una vez que los bots revelan su identidad. Los investigadores descubrieron que los bots son más eficientes que los humanos en ciertas interacciones hombre-máquina, pero solo si se les permite ocultar a sus no humanosnaturaleza.
en su documento titulado Evidencia de comportamiento para un equilibrio entre transparencia y eficiencia en la cooperación hombre-máquina publicado en Inteligencia de la máquina de la naturaleza , los investigadores presentaron su experimento en el que se les pidió a los participantes que jugaran un juego de cooperación con un asociado humano o un robot asociado. Este juego, llamado Dilema del prisionero iterado, fue diseñado para capturar situaciones en las que cada una de las partes que interactúan puedeactuar egoístamente en un intento de explotar al otro, o cooperar en un intento por lograr un resultado mutuamente beneficioso.
Crucialmente, los investigadores dieron a algunos participantes información incorrecta sobre la identidad de su asociado. A algunos participantes que interactuaron con un humano se les dijo que estaban interactuando con un bot, y viceversa. A través de este experimento, los investigadores pudieron determinar si las personas estabanprejuicios contra los interlocutores sociales que creen que son bots, y evalúan el grado en que dicho prejuicio, si existe, afecta la eficiencia de los bots que son transparentes sobre su naturaleza no humana.
Los resultados mostraron que los bots que se hacían pasar por humanos fueron más eficientes al persuadir al compañero para que cooperara en el juego. Sin embargo, tan pronto como se reveló su verdadera naturaleza, las tasas de cooperación disminuyeron y la superioridad de los bots fue negada.
"Aunque existe un amplio consenso de que las máquinas deben ser transparentes sobre cómo toman decisiones, no está claro si deberían ser transparentes sobre quiénes son", dijo Rahwan.
"Considere, por ejemplo, Google Duplex, un asistente de voz automatizado capaz de generar un discurso similar al humano para hacer llamadas telefónicas y reservar citas en nombre de su usuario. El discurso de Google Duplex es tan realista que la persona al otro lado del teléfonoes posible que el teléfono ni siquiera se dé cuenta de que están hablando con un bot. ¿Es ético desarrollar un sistema así? ¿Deberíamos prohibir que los bot pasen como humanos y obligarlos a ser transparentes acerca de quiénes son? Si la respuesta es 'Sí',entonces nuestros hallazgos resaltan la necesidad de establecer estándares para el costo de eficiencia que estamos dispuestos a pagar a cambio de tal transparencia ".
Fuente de la historia :
Materiales proporcionados por Universidad de Nueva York . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cite esta página :