¿Puede un vehículo autónomo ser moral, actuar como lo hacen los humanos o actuar como los humanos esperan que lo hagan los humanos? Al contrario de lo que se pensaba anteriormente, un nuevo estudio innovador descubrió por primera vez que la moralidad humana puede modelarse en el sentido de esa máquinalas decisiones morales basadas son, en principio, posibles.
La investigación, Experimentos de realidad virtual que investigan el comportamiento humano y las evaluaciones morales, del Instituto de Ciencias Cognitivas de la Universidad de Osnabrück, y publicado en Fronteras en la neurociencia conductual , utilizó la realidad virtual inmersiva para permitir a los autores estudiar el comportamiento humano en escenarios de tráfico simulado.
Se les pidió a los participantes que condujeran un automóvil en un vecindario suburbano típico en un día de niebla cuando experimentaron situaciones inesperadas de dilemas inevitables con objetos inanimados, animales y humanos y tuvieron que decidir cuál se debía evitar. Los resultados fueron conceptualizados por estadísticasmodelos que conducen a reglas, con un grado asociado de poder explicativo para explicar el comportamiento observado. La investigación demostró que las decisiones morales en el ámbito limitado de las colisiones de tráfico inevitables pueden explicarse bien y modelarse mediante un único valor de vidapor cada humano, animal u objeto inanimado.
Leon Sütfeld, primer autor del estudio, dice que hasta ahora se suponía que las decisiones morales dependen en gran medida del contexto y, por lo tanto, no se pueden modelar o describir algorítmicamente, "pero encontramos todo lo contrario. El comportamiento humano en situaciones de dilema puede sermodelado por un modelo bastante simple basado en el valor de la vida que el participante atribuye a cada objeto humano, animal o inanimado ". Esto implica que el comportamiento moral humano puede describirse bien mediante algoritmos que también podrían ser utilizados por las máquinas..
Los hallazgos del estudio tienen implicaciones importantes en el debate sobre el comportamiento de los automóviles sin conductor y otras máquinas, como en situaciones inevitables. Por ejemplo, una nueva iniciativa líder del Ministerio Federal de Transporte e Infraestructura Digital de Alemania BMVI ha definido20 principios éticos relacionados con los vehículos autónomos, por ejemplo, en relación con el comportamiento en el caso de accidentes inevitables, haciendo la suposición crítica de que el comportamiento moral humano no podría ser modelado.
El profesor Gordon Pipa, autor principal del estudio, dice que dado que ahora parece posible que las máquinas puedan programarse para tomar decisiones morales similares a las humanas, es crucial que la sociedad se involucre en un debate urgente y serio, "necesitamospreguntar si los sistemas autónomos deberían adoptar juicios morales, en caso afirmativo, ¿deberían imitar el comportamiento moral imitando las decisiones humanas, deberían comportarse de acuerdo con teorías éticas y, de ser así, cuáles y críticamente, si las cosas salen mal, quién o qué tiene la culpa?
Como ejemplo, dentro de los nuevos principios éticos alemanes, un niño que corre hacia la carretera se clasificaría como significativamente involucrado en la creación del riesgo, por lo tanto, menos calificado para ser salvado en comparación con un adulto parado en el sendero como no involucradofiesta. Pero, ¿es este un valor moral de la mayoría de las personas y qué tan grande es el alcance de la interpretación?
"Ahora que sabemos cómo implementar decisiones éticas humanas en máquinas, nosotros, como sociedad, todavía tenemos un doble dilema", explica el profesor Peter König, autor principal del artículo. "En primer lugar, tenemos que decidirsi los valores morales deberían incluirse en las pautas para el comportamiento de la máquina y, en segundo lugar, si lo están, las máquinas deberían actuar como los humanos "
Los autores del estudio dicen que los autos autónomos son solo el comienzo a medida que los robots en los hospitales y otros sistemas de inteligencia artificial se vuelven más comunes. Advierten que ahora estamos al comienzo de una nueva época con la necesidad de reglas claras, de lo contrario las máquinas comenzarán a funcionarmarcando decisiones sin nosotros.
Fuente de la historia :
Materiales proporcionados por fronteras . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cite esta página :