Los humanos esperan que la IA sea benévola y confiable. Un nuevo estudio revela que, al mismo tiempo, los humanos no están dispuestos a cooperar y comprometerse con las máquinas. Incluso las explotan.
Imagínese conduciendo por una carretera estrecha en un futuro cercano cuando, de repente, otro automóvil emerge de una curva adelante. Es un automóvil autónomo sin pasajeros adentro. ¿Avanzará y hará valer su derecho de paso, o cederá el¿Dejarlo pasar? En la actualidad, la mayoría de nosotros nos comportamos amablemente en situaciones que involucran a otros humanos. ¿Mostraremos esa misma amabilidad hacia los vehículos autónomos?
Utilizando métodos de la teoría de juegos conductuales, un equipo internacional de investigadores de LMU y la Universidad de Londres ha realizado estudios en línea a gran escala para ver si las personas se comportarían de manera tan cooperativa con los sistemas de inteligencia artificial IA como lo hacen con sus semejantes.
La cooperación mantiene unida a una sociedad. A menudo requiere que nos comprometamos con los demás y aceptemos el riesgo de que nos defrauden. El tráfico es un buen ejemplo. Perdemos un poco de tiempo cuando dejamos que otras personas pasen frente a nosotros yestamos indignados cuando otros no responden a nuestra amabilidad. ¿Haremos lo mismo con las máquinas?
Explotar la máquina sin culpa
El estudio que se publica en la revista iScience descubrió que, en el primer encuentro, las personas tienen el mismo nivel de confianza hacia la IA que hacia los humanos: la mayoría espera conocer a alguien que esté listo para cooperar.
La diferencia viene después. Las personas están mucho menos dispuestas a corresponder con la IA y, en cambio, explotan su benevolencia en su propio beneficio. Volviendo al ejemplo del tráfico, un conductor humano cedería el paso a otro humano, pero no a un conductor autónomo.carro.
El estudio identifica esta falta de voluntad para comprometerse con las máquinas como un nuevo desafío para el futuro de las interacciones humano-IA.
"Ponemos a las personas en el lugar de alguien que interactúa con un agente artificial por primera vez, como podría suceder en la carretera", explica el Dr. Jurgis Karpus, teórico de los juegos conductuales y filósofo de LMU Munich y el primerautor del estudio. "Modelamos diferentes tipos de encuentros sociales y encontramos un patrón consistente. La gente esperaba que los agentes artificiales cooperaran tanto como los demás humanos. Sin embargo, no devolvieron su benevolencia tanto y explotaron la IA más que los humanos".
Con perspectivas de la teoría de juegos, la ciencia cognitiva y la filosofía, los investigadores encontraron que la 'explotación de algoritmos' es un fenómeno robusto. Replicaron sus hallazgos en nueve experimentos con casi 2.000 participantes humanos.
Cada experimento examina diferentes tipos de interacciones sociales y le permite al ser humano decidir si comprometerse y cooperar o actuar de manera egoísta. También se midieron las expectativas de los otros jugadores. En un juego bien conocido, el Dilema del Prisionero, la gente debe confiar en que elotros personajes no los defraudarán. Abrazaron el riesgo con los humanos y la IA por igual, pero traicionaron la confianza de la IA con mucha más frecuencia para ganar más dinero.
"La cooperación se sustenta en una apuesta mutua: confío en que será amable conmigo y usted confía en que yo seré amable con usted. La mayor preocupación en nuestro campo es que la gente no confíe en las máquinas. Pero demostramos que sí.! ", señala el profesor Bahador Bahrami, neurocientífico social de la LMU, y uno de los investigadores principales del estudio." Sin embargo, les parece bien desconectar la máquina, y esa es la gran diferencia. La gente ni siquiera informa muchoculpa cuando lo hacen ", agrega.
La IA benévola puede ser contraproducente
La inteligencia artificial sesgada y poco ética ha aparecido en muchos titulares, desde el fiasco de los exámenes de 2020 en el Reino Unido hasta los sistemas judiciales, pero esta nueva investigación plantea una nueva advertencia. La industria y los legisladores se esfuerzan por garantizar que la inteligencia artificial sea benevolente. Perola benevolencia puede ser contraproducente.
Si las personas piensan que la IA está programada para ser benévola con ellos, estarán menos tentados a cooperar. Algunos de los accidentes que involucran autos sin conductor ya pueden mostrar ejemplos de la vida real: los conductores reconocen un vehículo autónomo en la carretera, y esperar que ceda. Mientras tanto, el vehículo autónomo espera que se mantengan los compromisos normales entre conductores
"La explotación del algoritmo tiene más consecuencias en el futuro. Si los seres humanos son reacios a permitir que un auto educado sin conductor se incorpore desde una carretera lateral, ¿debería el auto sin conductor ser menos cortés y más agresivo para ser útil?", Pregunta.Jurgis Karpus.
"IA benévola y confiable es una palabra de moda que entusiasma a todo el mundo. Pero arreglar la IA no es toda la historia. Si nos damos cuenta de que el robot que tenemos delante será cooperativo pase lo que pase, lo usaremos para nuestro egoísmointerés ", dice la profesora Ophelia Deroy, filósofa y autora principal del estudio, que también trabaja con el Instituto de Investigación de la Paz de Oslo en las implicaciones éticas de la integración de soldados robots autónomos junto con soldados humanos." Los compromisos son el aceite que hace que la sociedad funcione.Para cada uno de nosotros, parece solo un pequeño acto de interés propio. Para la sociedad en su conjunto, podría tener repercusiones mucho mayores. Si nadie permite que los vehículos autónomos se unan al tráfico, crearán sus propios atascos laterales., y no facilitar el transporte. "
Fuente de la historia :
Materiales proporcionado por Ludwig-Maximilians-Universität München . Nota: el contenido se puede editar por estilo y longitud.
Referencia de la revista :
cite esta página :