David Lindell, un estudiante graduado en ingeniería eléctrica en la Universidad de Stanford, se puso un chándal de alta visibilidad y se puso a trabajar, estirar, pasear y saltar por una habitación vacía. A través de una cámara apuntando lejos de Lindell, a lo que parecía ser unpared en blanco: sus colegas podían ver cada uno de sus movimientos.
Eso es porque, oculto a simple vista, estaba siendo escaneado por un láser de alta potencia y las partículas de luz individuales que reflejaba en las paredes a su alrededor fueron capturadas y reconstruidas por los sensores avanzados y el algoritmo de procesamiento de la cámara.
"La gente habla de construir una cámara que pueda ver tan bien como los humanos para aplicaciones como automóviles y robots autónomos, pero queremos construir sistemas que vayan más allá de eso", dijo Gordon Wetzstein, profesor asistente de ingeniería eléctrica en Stanford"Queremos ver cosas en 3D, alrededor de las esquinas y más allá del espectro de luz visible".
El sistema de cámara que Lindell probó, que los investigadores están presentando en la conferencia SIGGRAPH 2019 del 1 de agosto, se basa en las cámaras anteriores que este equipo desarrolló. Es capaz de capturar más luz de una mayor variedad de superficies, ver másy más lejos y es lo suficientemente rápido como para monitorear por primera vez el movimiento fuera de la vista, como los ejercicios de Lindell. Algún día, los investigadores esperan que los sistemas de visión sobrehumana puedan ayudar a los automóviles y robots autónomos a operar de manera aún más segura de lo que lo harían conorientación humana.
Practicidad y sismología
Mantener su sistema práctico es una alta prioridad para estos investigadores. El hardware que eligieron, las velocidades de escaneo y procesamiento de imágenes, y el estilo de imagen ya son comunes en los sistemas autónomos de visión del automóvil. Sistemas anteriores para ver escenas fuera de la línea de cámaras de una cámarala vista se basaba en objetos que reflejaban la luz de manera uniforme o fuerte, pero los objetos del mundo real, incluidos los automóviles brillantes, quedan fuera de estas categorías, por lo que este sistema puede manejar la luz que rebota en una variedad de superficies, incluidas bolas de discoteca, libros y estatuas de textura intrincada.
El centro de su avance fue un láser 10,000 veces más potente que lo que estaban usando hace un año. El láser escanea una pared opuesta a la escena de interés y esa luz rebota en la pared, golpea los objetos en la escena, rebota de nuevo ala pared y los sensores de la cámara. Cuando la luz láser llega a la cámara, solo quedan motas, pero el sensor captura cada una, enviándola a un algoritmo altamente eficiente, también desarrollado por este equipo, que desenreda estos ecos de luz paradescifrar el cuadro oculto.
"Cuando observas el láser escanearlo, no ves nada", describió Lindell. "Con este hardware, básicamente podemos ralentizar el tiempo y revelar estas huellas de luz. Casi parece magia".
El sistema puede escanear a cuatro cuadros por segundo. Puede reconstruir una escena a velocidades de 60 cuadros por segundo en una computadora con una unidad de procesamiento de gráficos, lo que mejora las capacidades de procesamiento de gráficos.
Para avanzar en su algoritmo, el equipo buscó inspiración en otros campos. Los investigadores se sintieron particularmente atraídos por los sistemas de imágenes sísmicas, que hacen rebotar las ondas sonoras de las capas subterráneas de la Tierra para aprender qué hay debajo de la superficie, y reconfiguraron su algoritmo para que tambiéninterpretar la luz que rebota como ondas que emanan de los objetos ocultos. El resultado fue el mismo uso de alta velocidad y poca memoria con mejoras en sus habilidades para ver escenas grandes que contienen varios materiales.
"Se están utilizando muchas ideas en otros espacios, sismología, imágenes con satélites, radar de apertura sintética, que son aplicables para mirar alrededor de las esquinas", dijo Matthew O'Toole, profesor asistente en la Universidad Carnegie Mellon, quien anteriormentebecario posdoctoral en el laboratorio de Wetzstein: "Estamos tratando de sacar un poco de estos campos y esperamos poder devolverles algo en algún momento"
pasos humildes
Poder ver el movimiento en tiempo real de la luz invisible que rebotaba en una esquina fue un momento emocionante para este equipo, pero un sistema práctico para automóviles o robots autónomos requerirá mejoras adicionales.
"Son pasos muy humildes. El movimiento aún parece de baja resolución y no es súper rápido, pero en comparación con el estado del arte del año pasado es una mejora significativa", dijo Wetzstein. "Nos quedamos impresionadosla primera vez que vimos estos resultados porque hemos capturado datos que nadie ha visto antes "
El equipo espera avanzar hacia la prueba de su sistema en autos de investigación autónomos, mientras analiza otras posibles aplicaciones, como imágenes médicas que pueden ver a través de los tejidos. Entre otras mejoras de velocidad y resolución, también trabajarán para hacer su sistemaaún más versátil para abordar las condiciones visuales desafiantes que enfrentan los conductores, como la niebla, la lluvia, las tormentas de arena y la nieve.
Fuente de la historia :
Materiales proporcionado por Universidad de Stanford . Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :