En un artículo publicado por el Ciencias del comportamiento y derecho revista, expertos de la Universidad de Surrey analizan de manera crítica el uso creciente de herramientas algorítmicas de evaluación de riesgos, que actúan como una forma de evidencia científica experta en un número creciente de casos penales.
La revisión argumenta que debido a varios problemas, como los prejuicios de los desarrolladores y la débil evidencia estadística del desempeño predictivo de la IA, los jueces deben actuar como guardianes y analizar de cerca si tales herramientas deberían usarse en absoluto.
El documento describe tres pasos que los jueces deben considerar :
La Dra. Melissa Hamilton, autora del artículo y Lectora de Derecho y Justicia Penal de la Facultad de Derecho de la Universidad de Surrey, dijo: "Estas herramientas emergentes de IA tienen el potencial de ofrecer beneficios a los jueces en la sentencia, pero se debe prestar mucha atenciónpagado si son confiables. Si se usan descuidadamente, estas herramientas perjudicarán a los acusados en el extremo receptor ".
Fuente de la historia :
Materiales proporcionado por Universidad de Surrey . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :