Los investigadores de la Universidad Carnegie Mellon están desafiando una suposición de larga data de que existe una compensación entre la precisión y la equidad cuando se usa el aprendizaje automático para tomar decisiones de políticas públicas.
A medida que el uso del aprendizaje automático ha aumentado en áreas como la justicia penal, la contratación, la prestación de atención médica y las intervenciones de servicios sociales, ha aumentado la preocupación sobre si tales aplicaciones introducen nuevas desigualdades o amplifican las existentes, especialmente entre las minorías raciales y las personas con desventajas económicas.. Para protegerse contra este sesgo, se realizan ajustes en los datos, las etiquetas, el entrenamiento del modelo, los sistemas de puntuación y otros aspectos del sistema de aprendizaje automático. La suposición teórica subyacente es que estos ajustes hacen que el sistema sea menos preciso.
Un equipo de CMU tiene como objetivo disipar esa suposición en un nuevo estudio, publicado recientemente en Inteligencia de la máquina de la naturaleza . Rayid Ghani, profesor del Departamento de Aprendizaje Automático MLD de la Facultad de Ciencias de la Computación y del Heinz College of Information Systems and Public Policy; Kit Rodolfa, científico investigador en MLD; y Hemank Lamba, investigador postdoctoral enSCS, probó esa suposición en aplicaciones del mundo real y encontró que la compensación era insignificante en la práctica en una variedad de dominios de políticas.
"De hecho, puede obtener ambos. No tiene que sacrificar la precisión para construir sistemas que sean justos y equitativos", dijo Ghani. "Pero sí requiere que diseñe sistemas deliberadamente para que sean justos y equitativos.los sistemas de estanterías no funcionarán ".
Ghani y Rodolfa se centraron en situaciones en las que los recursos en demanda son limitados y los sistemas de aprendizaje automático se utilizan para ayudar a asignar esos recursos. Los investigadores analizaron los sistemas en cuatro áreas: priorizar el alcance limitado de la atención de salud mental en función del riesgo de que una persona regreseir a la cárcel para reducir la reencarcelación; predecir violaciones graves de seguridad para desplegar mejor a los inspectores de viviendas limitados de una ciudad; modelar el riesgo de que los estudiantes no se gradúen de la escuela secundaria a tiempo para identificar a los que más necesitan apoyo adicional; y ayudar a los maestros a alcanzar las metas de financiamiento colectivo para las necesidades del aula.
En cada contexto, los investigadores encontraron que los modelos optimizados para la precisión, práctica estándar para el aprendizaje automático, podían predecir de manera efectiva los resultados de interés, pero exhibían disparidades considerables en las recomendaciones para las intervenciones. Sin embargo, cuando los investigadores aplicaron ajustes a los resultados delos modelos que tenían como objetivo mejorar su equidad, descubrieron que las disparidades basadas en la raza, la edad o los ingresos, según la situación, podían eliminarse sin perder precisión.
Ghani y Rodolfa esperan que esta investigación comience a cambiar las mentes de otros investigadores y legisladores a medida que consideran el uso del aprendizaje automático en la toma de decisiones.
"Queremos que las comunidades de inteligencia artificial, informática y aprendizaje automático dejen de aceptar esta suposición de un compromiso entre precisión y equidad y comiencen a diseñar intencionalmente sistemas que maximicen ambos", dijo Rodolfa. "Esperamos que los legisladores adopten la máquinael aprendizaje como herramienta en la toma de decisiones para ayudarlos a lograr resultados equitativos ".
Fuente de la historia :
Materiales proporcionado por Universidad Carnegie Mellon . Original escrito por Aaron Aupperlee. Nota: el contenido se puede editar por estilo y longitud.
Referencia de la revista :
cite esta página :