Los nuevos "modelos de clasificación" perciben qué tan bien los humanos confían en las máquinas inteligentes con las que colaboran, un paso hacia la mejora de la calidad de las interacciones y el trabajo en equipo.
El objetivo a largo plazo del campo de investigación general es diseñar máquinas inteligentes capaces de cambiar su comportamiento para mejorar la confianza humana en ellas. Los nuevos modelos se desarrollaron en una investigación dirigida por la profesora asistente Neera Jain y la profesora asociada Tahira Reid, enEscuela de Ingeniería Mecánica de la Universidad de Purdue.
"Las máquinas inteligentes y, en términos más generales, los sistemas inteligentes se están volviendo cada vez más comunes en la vida cotidiana de los humanos", dijo Jain. "A medida que se requiere cada vez más que los humanos interactúen con sistemas inteligentes, la confianza se convierte en un factor importante para las interacciones sinérgicas".
Por ejemplo, los pilotos de aeronaves y los trabajadores industriales interactúan habitualmente con sistemas automatizados. Los humanos a veces anulan estas máquinas inteligentes innecesariamente si piensan que el sistema está fallando.
"Está bien establecido que la confianza humana es fundamental para las interacciones exitosas entre humanos y máquinas", dijo Reid.
Los investigadores han desarrollado dos tipos de "modelos de sensores de confianza empíricos basados en clasificadores", un paso hacia la mejora de la confianza entre humanos y máquinas inteligentes.
Un video de YouTube está disponible en http://www.youtube.com/watch?v=Mucl6pAgEQg .
El trabajo se alinea con la celebración Purdue's Giant Leaps, reconociendo los avances globales de la universidad en inteligencia artificial, algoritmos y automatización como parte del 150 aniversario de Purdue. Este es uno de los cuatro temas del Festival de Ideas de la celebración de un año, diseñado para mostrar a Purdue como uncentro intelectual para resolver problemas del mundo real.
Los modelos usan dos técnicas que proporcionan datos para medir la confianza: electroencefalografía y respuesta galvánica de la piel. El primero registra los patrones de ondas cerebrales, y el segundo monitorea los cambios en las características eléctricas de la piel, proporcionando "conjuntos de características" psicofisiológicas correlacionadas con la confianza.
Cuarenta y cinco sujetos humanos se pusieron auriculares inalámbricos EEG y usaron un dispositivo en una mano para medir la respuesta galvánica de la piel.
Uno de los nuevos modelos, un "modelo de sensor de confianza general", utiliza el mismo conjunto de características psicofisiológicas para los 45 participantes. El otro modelo está personalizado para cada sujeto humano, lo que resulta en una precisión media mejorada pero a expensas de un aumentoen tiempo de entrenamiento. Los dos modelos tenían una precisión media de 71.22 por ciento y 78.55 por ciento, respectivamente.
Es la primera vez que se utilizan mediciones de EEG para medir la confianza en tiempo real o sin demora.
"Estamos usando estos datos de una manera muy nueva", dijo Jain. "Lo estamos viendo en una especie de flujo continuo en lugar de mirar las ondas cerebrales después de un desencadenante o evento específico".
Los resultados se detallan en un trabajo de investigación que aparece en un número especial de la Asociación de Maquinaria de Computación Transacciones en sistemas inteligentes interactivos . El número especial de la revista se titula "Confianza e influencia en la interacción inteligente hombre-máquina". El documento fue escrito por el estudiante graduado de ingeniería mecánica Kumar Akash; el ex estudiante graduado Wan-Lin Hu, quien ahora es investigador asociado postdoctoral en StanfordUniversidad; Jain y Reid.
"Estamos interesados en utilizar los principios de control de retroalimentación para diseñar máquinas que sean capaces de responder a los cambios en el nivel de confianza humana en tiempo real para construir y gestionar la confianza en la relación hombre-máquina", dijo Jain. "para esto, necesitamos un sensor para estimar el nivel de confianza humana, nuevamente en tiempo real. Los resultados presentados en este documento muestran que las mediciones psicofisiológicas podrían usarse para hacer esto ".
El tema de la confianza humana en las máquinas es importante para la operación eficiente de los "colectivos de agentes humanos".
"El futuro se construirá alrededor de colectivos de agentes humanos que requerirán una coordinación y colaboración eficiente y exitosa entre humanos y máquinas", dijo Jain. "Digamos que hay un enjambre de robots que ayudan a un equipo de rescate durante un desastre natural. En nuestrotrabajamos con un solo humano y una máquina, pero en última instancia esperamos escalar a equipos de humanos y máquinas ".
Se han introducido algoritmos para automatizar diversos procesos.
"Pero todavía tenemos humanos allí que monitorean lo que está sucediendo", dijo Jain. "Por lo general, hay una función de anulación, donde si creen que algo no está bien, pueden recuperar el control".
a veces esta acción no está garantizada .
"Tienes situaciones en las que los humanos pueden no entender lo que está sucediendo, por lo que no confían en que el sistema haga lo correcto", dijo Reid. "Entonces retoman el control incluso cuando realmente no deberían".
En algunos casos, por ejemplo, en el caso de los pilotos que anulan el piloto automático, recuperar el control podría obstaculizar la operación segura de la aeronave y causar accidentes.
"Un primer paso hacia el diseño de máquinas inteligentes que sean capaces de construir y mantener la confianza con los humanos es el diseño de un sensor que permita a las máquinas estimar el nivel de confianza humana en tiempo real", dijo Jain.
Para validar su método, se pidió a 581 participantes en línea que operaran una simulación de manejo en la que una computadora identificaba obstáculos en la carretera. En algunos escenarios, la computadora identificó correctamente los obstáculos el 100 por ciento del tiempo, mientras que en otros escenarios la computadora identificó incorrectamente los obstáculos50 por ciento del tiempo.
"Por lo tanto, en algunos casos le diría que hay un obstáculo, por lo tanto, pisa los frenos y evita un accidente, pero en otros casos le indicaría incorrectamente que existe un obstáculo cuando no había ninguno, por lo que golpeó los frenos porno hay razón ", dijo Reid.
La prueba permitió a los investigadores identificar características psicofisiológicas que se correlacionan con la confianza humana en los sistemas inteligentes, y construir un modelo de sensor de confianza en consecuencia. "Presumimos que el nivel de confianza sería alto en ensayos confiables y bajo en ensayos defectuosos,y validamos esta hipótesis utilizando respuestas recopiladas de 581 participantes en línea ", dijo.
Los resultados validaron que el método indujo efectivamente la confianza y la desconfianza en la máquina inteligente.
"Para estimar la confianza en tiempo real, requerimos la capacidad de extraer y evaluar continuamente mediciones psicofisiológicas clave", dijo Jain. "Este trabajo representa el primer uso de mediciones psicofisiológicas en tiempo real para el desarrollo de un sensor de confianza humana"
El auricular EEG graba señales en nueve canales, cada canal capta diferentes partes del cerebro.
"Las ondas cerebrales de cada persona son diferentes, por lo que debe asegurarse de crear un clasificador que funcione para todos los humanos"
Para los sistemas autónomos, la confianza humana se puede clasificar en tres categorías: disposicional, situacional y aprendida.
La confianza disposicional se refiere al componente de confianza que depende de la demografía, como el género y la cultura, que conlleva posibles sesgos.
"Sabemos que probablemente haya diferencias matizadas que deberían tenerse en cuenta", dijo Reid. "Las mujeres confían de manera diferente a los hombres, por ejemplo, y la confianza también puede verse afectada por las diferencias de edad y nacionalidad".
La confianza situacional puede verse afectada por el nivel de riesgo o dificultad de una tarea, mientras que el aprendizaje se basa en la experiencia pasada del ser humano con sistemas autónomos.
Los modelos que desarrollaron se denominan algoritmos de clasificación.
"La idea es poder usar estos modelos para clasificar cuándo alguien probablemente se siente confiado versus probablemente se siente desconfiado", dijo.
Jain y Reid también han investigado la confianza disposicional para dar cuenta de las diferencias culturales y de género, así como modelos dinámicos capaces de predecir cómo cambiará la confianza en el futuro en función de los datos.
Fuente de la historia :
Materiales proporcionado por Universidad de Purdue . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cite esta página :