Hace setenta años, el escritor de ciencia ficción Isaac Asimov imaginó un mundo donde los robots servirían a los humanos de innumerables maneras, y los equipó con salvaguardas incorporadas, ahora conocidas como las Tres Leyes de la Robótica de Asimov, para prevenirlos, entre otros objetivos,de dañar a una persona.
Garantizar el comportamiento seguro y justo de la máquina sigue siendo un problema hoy en día, dice el investigador de aprendizaje automático y autor principal Philip Thomas de la Universidad de Massachusetts Amherst. "Cuando alguien aplica un algoritmo de aprendizaje automático, es difícil controlar su comportamiento", señalaEsto arriesga resultados no deseados de algoritmos que dirigen todo, desde vehículos autónomos hasta bombas de insulina y sentencias penales, dicen él y sus coautores.
Escribiendo en ciencia Thomas y sus colegas Yuriy Brun, Andrew Barto y el estudiante graduado Stephen Giguere en UMass Amherst, Bruno Castro da Silva en la Universidad Federal de Río Grande del Sol, Brasil, y Emma Brunskill en la Universidad de Stanford presentan esta semana un nuevo marco paradiseñar algoritmos de aprendizaje automático que faciliten a los usuarios del algoritmo especificar restricciones de seguridad y equidad.
"Llamamos a los algoritmos creados con nuestro nuevo marco 'Seldonian' después del personaje de Asimov Hari Seldon", explica Thomas. "Si uso un algoritmo Seldonian para el tratamiento de la diabetes, puedo especificar que un comportamiento indeseable significa un nivel de azúcar en sangre peligrosamente bajo o hipoglucemia.Puedo decirle a la máquina, "mientras intentas mejorar el controlador de la bomba de insulina, no hagas cambios que aumenten la frecuencia de la hipoglucemia". La mayoría de los algoritmos no te dan una forma de poner este tipo derestricción en el comportamiento; no se incluyó en los primeros diseños "
"Pero hacer que sea más fácil garantizar la equidad y evitar daños es cada vez más importante a medida que los algoritmos de aprendizaje automático afectan nuestras vidas cada vez más", dice.
Sin embargo, "un artículo reciente enumeró 21 definiciones diferentes de equidad en el aprendizaje automático. Es importante que permitamos que el usuario seleccione la definición que sea apropiada para su aplicación prevista", agrega. "La interfaz que viene con un algoritmo Seldonianopermite al usuario hacer exactamente esto: definir qué significa 'comportamiento indeseable' para su aplicación ".
En la serie de la Fundación Asimov, Seldon está en el mismo universo que su serie Robot. Thomas explica: "Todo se ha derrumbado, el imperio galáctico se está derrumbando, en parte porque las Tres Leyes de la Robótica requieren certeza. Con ese nivel de seguridad requerido,los robots están paralizados por la indecisión porque no pueden actuar con certeza y garantizar que ningún humano será dañado por sus acciones ".
Seldon propone arreglar esto recurriendo al razonamiento probabilístico sobre la seguridad. "Eso encaja bien con lo que estamos haciendo, dice Thomas. El nuevo enfoque que él y sus colegas proporcionan permite restricciones probabilísticas y requiere que el algoritmo especifique formas en que el usuario puededígale qué restringir. Él dice: "El marco es una herramienta para el investigador de aprendizaje automático. Los guía hacia la creación de algoritmos que sean más fáciles de aplicar de manera responsable a los problemas del mundo real".
Para probar el nuevo marco, lo aplicaron para predecir promedios de calificaciones en un conjunto de datos de 43,000 estudiantes en Brasil mediante la creación de un algoritmo seldoniano con restricciones. Con éxito evitó varios tipos de sesgos de género indeseables. En otra prueba, muestran cómoun algoritmo podría mejorar el controlador en una bomba de insulina al tiempo que garantiza que no aumentaría la frecuencia de hipoglucemia.
Thomas dice: "Creemos que hay mucho margen de mejora en esta área. Incluso con nuestros algoritmos hechos de componentes simples, obtuvimos resultados impresionantes. Esperamos que los investigadores de aprendizaje automático desarrollen algoritmos nuevos y más sofisticados utilizando nuestro marco, que se puede usar de manera responsable para aplicaciones donde el aprendizaje automático solía considerarse demasiado riesgoso. Es un llamado a otros investigadores para que realicen investigaciones en este espacio ".
Fuente de la historia :
Materiales proporcionado por Universidad de Massachusetts Amherst . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :