Los investigadores del Instituto de Tecnología de Georgia, en colaboración con la Universidad de Cornell y la Universidad de Kentucky, han desarrollado un agente artificialmente inteligente AI que puede generar automáticamente explicaciones del lenguaje natural en tiempo real para transmitir las motivaciones detrás de sus acciones. El trabajo está diseñadopara dar a los humanos que interactúan con agentes o robots de IA la confianza de que el agente está realizando la tarea correctamente y puede explicar un error o un comportamiento erróneo.
El agente también usa un lenguaje cotidiano que los no expertos pueden entender. Las explicaciones, o "razones" como los llaman los investigadores, están diseñadas para ser identificables e inspirar confianza en aquellos que podrían estar en el lugar de trabajo con máquinas de IA o interactuar con ellos.ellos en situaciones sociales.
"Si el poder de la IA debe ser democratizado, debe ser accesible para cualquiera, independientemente de sus habilidades técnicas", dijo Upol Ehsan, estudiante de doctorado en la Escuela de Computación Interactiva de Georgia Tech e investigador principal.
"A medida que la IA impregna todos los aspectos de nuestras vidas, existe una clara necesidad de un diseño de IA centrado en el ser humano que haga que los sistemas de IA en caja negra sean explicables para los usuarios cotidianos. Nuestro trabajo da un paso formativo hacia la comprensión del papel de las explicaciones basadas en el lenguajey cómo los perciben los humanos "
El estudio fue apoyado por la Oficina de Investigación Naval ONR.
Los investigadores desarrollaron un estudio participante para determinar si su agente de IA podía ofrecer razones que imitaran las respuestas humanas. Los espectadores vieron al agente de IA jugar el videojuego Frogger y luego clasificaron tres razones en pantalla en orden de qué tan bien describieron cada uno el movimiento del juego de IA.
De las tres justificaciones anónimas para cada movimiento, una respuesta generada por el ser humano, la respuesta del agente de IA y una respuesta generada al azar, los participantes prefirieron primero las razones generadas por el ser humano, pero las respuestas generadas por la IA fueron un segundo lugar cercano.
Frogger ofreció a los investigadores la oportunidad de entrenar una IA en un "entorno de toma de decisiones secuencial", lo cual es un desafío de investigación significativo porque las decisiones que el agente ya ha tomado influyen en las decisiones futuras. Por lo tanto, explicar la cadena de razonamiento a los expertos esdifícil, y aún más cuando se comunica con no expertos, según los investigadores.
Los espectadores humanos entendieron el objetivo de Frogger de llevar a la rana a casa de manera segura sin ser golpeada por vehículos en movimiento o ahogada en el río. La mecánica simple del juego de moverse hacia arriba, hacia abajo, hacia la izquierda o hacia la derecha, permitió a los participantes ver qué era la IAestaba haciendo y evaluar si los fundamentos en la pantalla justificaban claramente el movimiento.
Los espectadores juzgaron los fundamentos basados en :
Las razones generadas por la IA que fueron clasificadas más arriba por los participantes fueron aquellas que mostraron reconocimiento de las condiciones ambientales y la adaptabilidad, así como aquellas que comunicaron la conciencia de los próximos peligros y planificaron para ellos. La información redundante que simplemente indicaba lo obvio o mal caracterizado el entorno eraencontrado para tener un impacto negativo.
"Este proyecto tiene más que ver con la comprensión de las percepciones y preferencias humanas de estos sistemas de IA que con la construcción de nuevas tecnologías", dijo Ehsan. "En el corazón de la explicabilidad está el sentido. Estamos tratando de entender ese factor humano".
Un segundo estudio relacionado validó la decisión de los investigadores de diseñar su agente de IA para poder ofrecer uno de dos tipos distintos de fundamentos :
En este segundo estudio, a los participantes solo se les ofrecieron razones generadas por IA después de ver a la IA jugar a Frogger. Se les pidió que seleccionaran la respuesta que preferían en un escenario en el que una IA cometió un error o se comportó inesperadamente. No sabían ellos fundamentos se agruparon en las dos categorías.
Por un margen de 3 a 1, los participantes favorecieron las respuestas que se clasificaron en la categoría de "imagen completa". Las respuestas mostraron que la gente apreciaba la IA pensando en pasos futuros en lugar de solo en lo que estaba en el momento, lo que podría hacerlos máspropensos a cometer otro error. La gente también quería saber más para poder ayudar directamente a la IA a corregir el comportamiento errante.
"La comprensión situada de las percepciones y preferencias de las personas que trabajan con máquinas de IA nos proporciona un poderoso conjunto de ideas procesables que pueden ayudarnos a diseñar mejores agentes autónomos, generadores de lógica y centrados en el ser humano", dijo Mark Riedl, profesor de InteractiveMiembro de la facultad de computación y líder en el proyecto.
Una posible dirección futura para la investigación aplicará los hallazgos a agentes autónomos de varios tipos, como agentes complementarios, y cómo podrían responder en función de la tarea en cuestión. Los investigadores también analizarán cómo los agentes podrían responder en diferentes escenarios,como durante una respuesta de emergencia o al ayudar a los maestros en el aula.
La investigación se presentó en marzo en la Conferencia de la Asociación de Computadoras Inteligentes de Interfaces de Usuario 2019. El documento se titula "Generación de justificación automatizada: una técnica para la IA explicable y sus efectos sobre las percepciones humanas". Ehsan presentará un documento de posición destacando eldesafíos de diseño y evaluación de sistemas de IA explicables centrados en el ser humano en el próximo taller de Perspectivas emergentes en aprendizaje automático centrado en el ser humano en la conferencia ACM CHI 2019, del 4 al 9 de mayo, en Glasgow, Escocia.
Fuente de la historia :
Materiales proporcionado por Instituto de Tecnología de Georgia . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :