El tiempo es dinero y, desafortunadamente para las empresas, contratar nuevos empleados lleva un tiempo considerable, más de un mes en promedio, según muestra una investigación.
Las decisiones de contratación también están plagadas de prejuicios humanos, lo que lleva a algunas organizaciones a entregar al menos parte de sus búsquedas de empleados a compañías tecnológicas externas que evalúan a los solicitantes con algoritmos de aprendizaje automático. Si a los humanos les cuesta tanto encontrar la mejor opción para sus empresas, se piensa, tal vez una máquina pueda hacerlo mejor y de manera más eficiente.
Pero una nueva investigación de un equipo de académicos de Informática y Ciencias de la Información de la Universidad de Cornell plantea preguntas sobre esos algoritmos y las empresas tecnológicas que los desarrollan y usan: ¿Qué tan imparcial es el proceso de detección automatizado? ¿Cómo se construyen los algoritmos?¿hacia qué fin y con qué datos?
Descubrieron que las empresas tienden a favorecer la oscuridad sobre la transparencia en este campo emergente, donde la falta de consenso sobre puntos fundamentales, definiciones formales de "sesgo" y "imparcialidad", para empezar, han permitido a las empresas tecnológicas definir y abordar el sesgo algorítmicoen sus propios términos.
"Creo que estamos comenzando a ver un creciente reconocimiento entre los creadores de herramientas algorítmicas de toma de decisiones que necesitan ser particularmente conscientes de cómo sus herramientas impactan a las personas", dijo Manish Raghavan, estudiante de doctorado en ciencias de la computación y primer autorde "Mitigación del sesgo en la detección de empleo algorítmico: evaluación de reclamos y prácticas", que se presentará en enero en la Conferencia de la Asociación de Maquinaria Informática sobre Equidad, Responsabilidad y Transparencia.
"Muchos de los proveedores que encontramos en nuestro trabajo reconocen este impacto y están tomando medidas para abordar los prejuicios y la discriminación", dijo Raghavan. "Sin embargo, existe una notable falta de consenso o dirección sobre exactamente cómo debería ser estohecho."
Los investigadores buscaron la información pública disponible para comenzar a comprender estas herramientas y qué medidas, si las hay, tienen las compañías para evaluar y mitigar el sesgo algorítmico. Protegidas por las leyes de propiedad intelectual, las compañías tecnológicas no tienen que revelar ninguna información sobre susmodelos algorítmicos para evaluaciones previas al empleo, aunque algunas empresas optaron por ofrecer información.
Los investigadores se centraron en 19 proveedores que se especializan en evaluaciones algorítmicas previas al empleo, que, según encontraron, incluyen preguntas, análisis de entrevistas en video y juegos. Combinaron los sitios web de la compañía, los seminarios web y cualquier documento disponible para obtener información sobre las reclamaciones y prácticas de los proveedores.
Muy pocos proveedores ofrecen información concreta sobre cómo validan sus evaluaciones o revelan detalles sobre cómo mitigan el sesgo algorítmico, encontraron los investigadores.
"Muchos proveedores no mencionan los esfuerzos para combatir el sesgo, lo cual es particularmente preocupante ya que no lo están pensando en absoluto o no están siendo transparentes sobre sus prácticas", dijo Raghavan.
Incluso si usan términos como "sesgo" e "imparcialidad", estos pueden ser vagos. Un proveedor puede afirmar que su algoritmo de evaluación es "imparcial" sin revelar cómo la empresa define la imparcialidad.
Raghavan dijo que es como huevos de "rango libre": hay un conjunto de condiciones bajo las cuales los huevos pueden ser etiquetados como rango libre, pero nuestra noción intuitiva de rango libre puede no coincidir con esas condiciones.
"De la misma manera, llamar a un algoritmo 'justo' apela a nuestra comprensión intuitiva del término al tiempo que solo se logra un resultado mucho más estrecho de lo que podríamos esperar", dijo.
El equipo espera que el documento fomente la transparencia y la conversación sobre lo que significa actuar éticamente en este dominio de las evaluaciones previas al empleo a través del aprendizaje automático.
Dados los desafíos, ¿podría ser que los algoritmos simplemente no están a la altura del trabajo de selección de solicitantes? No tan rápido, dijo Raghavan.
"Sabemos por años de evidencia empírica que los humanos sufren de una variedad de prejuicios cuando se trata de evaluar candidatos de empleo", dijo. "La verdadera pregunta no es si los algoritmos pueden perfeccionarse; en cambio, la comparación relevante es sipueden mejorar sobre métodos alternativos, o en este caso, el status quo humano.
"A pesar de sus muchos defectos", dijo, "los algoritmos tienen el potencial de contribuir a una sociedad más equitativa, y se necesita más trabajo para garantizar que podamos entender y mitigar los prejuicios que traen".
Los coautores del artículo son Solon Barocas, profesor asistente de ciencias de la información, actualmente en Microsoft Research; Jon Kleinberg, profesor de informática de la Universidad de Tisch y decano interino del CIS; y Karen Levy, profesora asistente de ciencias de la información.
La investigación está respaldada, en parte, por una donación de la Fundación MacArthur a la Iniciativa de Inteligencia Artificial, Política y Práctica de Cornell; la Fundación Nacional de Ciencias; y Microsoft Research.
Fuente de la historia :
Materiales proporcionado por Universidad de Cornell . Original escrito por Louis DiPietro. Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :