Un equipo de investigación internacional que incluye a Iyad Rahwan, Director del Centro para Humanos y Máquinas del Instituto Max Planck para el Desarrollo Humano en Berlín, buscó averiguar si la cooperación entre humanos y máquinas es diferente si la máquina pretende ser humana.llevó a cabo un experimento en el que los humanos interactuaban con bots. En el estudio ahora publicado en Inteligencia de la máquina de la naturaleza , los científicos muestran que los bots tienen más éxito que los humanos en ciertas interacciones hombre-máquina, pero solo si se les permite ocultar su identidad no humana.
Las voces artificiales de Siri, Alexa o Google, y sus respuestas a menudo incómodas, no dejan lugar a dudas de que no estamos hablando con una persona real. Los últimos avances tecnológicos que combinan inteligencia artificial con voces humanas engañosamente realistas ahora lo hacenposible que los bots se hagan pasar por humanos. Esto ha llevado a nuevos problemas éticos: ¿Es la suplantación de los humanos un caso de engaño? ¿Debería ser obligatoria la transparencia?
Investigaciones anteriores han demostrado que los humanos prefieren no cooperar con robots inteligentes. Pero si las personas ni siquiera se dan cuenta de que están interactuando con una máquina y la cooperación entre ambos es más exitosa, ¿no tendría sentido mantener el engaño en¿algunos casos?
En el estudio publicado en Inteligencia de la máquina de la naturaleza , un equipo de investigación de los Emiratos Árabes Unidos, EE. UU. Y Alemania que involucra a Iyad Rahwan, Director del Centro para Humanos y Máquinas del Instituto Max Planck para el Desarrollo Humano, pidió a casi 700 participantes en un juego de cooperación en línea que interactúen con unhumano o un compañero artificial. En el juego, conocido como el dilema del prisionero, los jugadores pueden actuar con egoísmo para explotar al otro jugador, o cooperar con ventajas para ambas partes.
El aspecto crucial del experimento fue que los investigadores dieron a algunos participantes información falsa sobre la identidad de su compañero de juego. A algunos participantes que interactuaban con una persona se les dijo que estaban jugando con un bot, y viceversa. Esto permitió a los investigadores examinar si los humanostienen prejuicios contra los socios de juego que toman por bots y si hace una diferencia en la eficiencia de los bots si admiten que son bots o no.
Los hallazgos mostraron que los bots que se hacen pasar por humanos tuvieron más éxito en convencer a sus compañeros de juego para que cooperen. Sin embargo, tan pronto como divulgaron su verdadera identidad, las tasas de cooperación disminuyeron. Traducir esto a un escenario más realista podría significar que los escritorios de ayuda ejecutados por bots, por ejemplo, pueden proporcionar asistencia de manera más rápida y eficiente si se les permite hacerse pasar por humanos. Los investigadores dicen que la sociedad tendrá que negociar las distinciones entre los casos de interacción hombre-máquina que requieren transparencia y aquellos donde la eficiencia esllave.
Fuente de la historia :
Materiales proporcionado por Max-Planck-Gesellschaft . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :