Para mejorar la seguridad de los sistemas autónomos, los ingenieros del MIT han desarrollado un sistema que puede detectar pequeños cambios en las sombras en el suelo para determinar si hay un objeto en movimiento a la vuelta de la esquina.
Los automóviles autónomos algún día podrían usar el sistema para evitar rápidamente una posible colisión con otro automóvil o peatón que emerge de la esquina de un edificio o entre automóviles estacionados. En el futuro, robots que pueden navegar por los pasillos de los hospitales para hacer entregas de medicamentos o suministrospodría usar el sistema para evitar golpear a las personas.
En un documento presentado en la Conferencia Internacional sobre Robots y Sistemas Inteligentes IROS de la próxima semana, los investigadores describen experimentos exitosos con un automóvil autónomo que circula por un estacionamiento y una silla de ruedas autónoma que navega por los pasillos. Al detectar y detenerse cuando se acerca un vehículo, el sistema basado en el automóvil supera a LiDAR tradicional, que solo puede detectar objetos visibles, en más de medio segundo.
Eso puede no parecer mucho, pero las fracciones de un segundo asunto cuando se trata de vehículos autónomos de movimiento rápido, dicen los investigadores.
"Para aplicaciones en las que los robots se mueven en entornos con otros objetos o personas en movimiento, nuestro método puede avisar al robot de que alguien viene a la vuelta de la esquina, para que el vehículo pueda reducir la velocidad, adaptar su camino y prepararse con anticipaciónpara evitar una colisión ", agrega la coautora Daniela Rus, directora del Laboratorio de Ciencias de la Computación e Inteligencia Artificial CSAIL y la profesora Andrew and Erna Viterbi de Ingeniería Eléctrica y Ciencias de la Computación." El gran sueño es proporcionar rayos X"una especie de visión de vehículos que se mueven rápido en las calles".
Actualmente, el sistema solo se ha probado en entornos interiores. Las velocidades robóticas son mucho más bajas en interiores y las condiciones de iluminación son más consistentes, lo que facilita que el sistema detecte y analice las sombras.
Uniéndose a Rus en el artículo están: primer autor Felix Naser SM '19, un ex investigador de CSAIL; Alexander Amini, un estudiante graduado de CSAIL; Igor Gilitschenski, un postdoc CSAIL; graduado reciente Christina Liao '19; Guy Rosman de Toyota ResearchInstituto; y Sertac Karaman, profesor asociado de aeronáutica y astronáutica en el MIT.
Extendiendo ShadowCam
Para su trabajo, los investigadores desarrollaron su sistema, llamado "ShadowCam", que utiliza técnicas de visión por computadora para detectar y clasificar los cambios en las sombras en el suelo. Los profesores del MIT William Freeman y Antonio Torralba, que no son coautores deEl documento IROS, colaboró en las versiones anteriores del sistema, que se presentaron en conferencias en 2017 y 2018.
Para la entrada, ShadowCam utiliza secuencias de fotogramas de video de una cámara que apuntan a un área específica, como el piso frente a una esquina. Detecta cambios en la intensidad de la luz con el tiempo, de una imagen a otra, que pueden indicar que algo se aleja oacercándose. Algunos de esos cambios pueden ser difíciles de detectar o invisibles a simple vista, y pueden ser determinados por varias propiedades del objeto y el entorno. ShadowCam calcula esa información y clasifica cada imagen como que contiene un objeto estacionario o dinámico, en movimientouno. Si llega a una imagen dinámica, reacciona en consecuencia.
La adaptación de ShadowCam para vehículos autónomos requirió algunos avances. La primera versión, por ejemplo, se basaba en alinear un área con etiquetas de realidad aumentada llamadas "AprilTags", que se asemejan a códigos QR simplificados. Los robots escanean AprilTags para detectar y calcular su posición 3D precisay orientación relativa a la etiqueta. ShadowCam usó las etiquetas como características del entorno para concentrarse en parches específicos de píxeles que pueden contener sombras. Pero modificar entornos del mundo real con AprilTags no es práctico.
Los investigadores desarrollaron un proceso novedoso que combina el registro de imágenes y una nueva técnica de odometría visual. A menudo utilizado en la visión por computadora, el registro de imágenes esencialmente superpone múltiples imágenes para revelar variaciones en las imágenes. El registro de imágenes médicas, por ejemplo, se superpone a los escaneos médicos paracomparar y analizar diferencias anatómicas.
La odometría visual, utilizada para Mars Rovers, estima el movimiento de una cámara en tiempo real mediante el análisis de la pose y la geometría en secuencias de imágenes. Los investigadores emplean específicamente "Odometría dispersa directa" DSO, que puede calcular puntos de características en entornossimilar a los capturados por AprilTags. Esencialmente, DSO traza las características de un entorno en una nube de puntos 3D, y luego una tubería de visión por computadora selecciona solo las características ubicadas en una región de interés, como el piso cerca de una esquina.los intereses fueron anotados manualmente de antemano.
Como ShadowCam toma secuencias de imágenes de entrada de una región de interés, utiliza el método de registro de imagen DSO para superponer todas las imágenes desde el mismo punto de vista del robot. Incluso cuando un robot se está moviendo, puede centrarse exactamentemismo parche de píxeles donde se encuentra una sombra para ayudarlo a detectar cualquier desviación sutil entre las imágenes.
Lo siguiente es la amplificación de señal, una técnica introducida en el primer artículo. Los píxeles que pueden contener sombras obtienen un aumento de color que reduce la relación señal-ruido. Esto hace que las señales extremadamente débiles de los cambios de sombra sean mucho más detectables.la señal alcanza un cierto umbral, basado en parte en cuánto se desvía de otras sombras cercanas: ShadowCam clasifica la imagen como "dinámica". Dependiendo de la intensidad de esa señal, el sistema puede indicarle al robot que disminuya la velocidad o se detenga.
"Al detectar esa señal, puede tener cuidado. Puede ser una sombra de una persona corriendo detrás de la esquina o un automóvil estacionado, por lo que el automóvil autónomo puede reducir la velocidad o detenerse por completo", dice Naser.
prueba sin etiquetas
En una prueba, los investigadores evaluaron el rendimiento del sistema al clasificar objetos en movimiento o estacionarios usando AprilTags y el nuevo método basado en DSO. Una silla de ruedas autónoma se dirigió hacia varias esquinas del pasillo mientras los humanos doblaban la esquina en el camino de la silla de ruedas. Ambos métodos lograron elmisma precisión de clasificación del 70 por ciento, lo que indica que AprilTags ya no son necesarias.
En una prueba por separado, los investigadores implementaron ShadowCam en un automóvil autónomo en un estacionamiento, donde se apagaron los faros, imitando las condiciones de manejo nocturnas. Compararon los tiempos de detección de automóviles versus LiDAR. En un escenario de ejemplo, ShadowCam detectó el automóvilgirando los pilares aproximadamente 0,72 segundos más rápido que LiDAR. Además, debido a que los investigadores habían ajustado ShadowCam específicamente a las condiciones de iluminación del garaje, el sistema logró una precisión de clasificación de alrededor del 86 por ciento.
A continuación, los investigadores están desarrollando el sistema aún más para que funcione en diferentes condiciones de iluminación interior y exterior. En el futuro, también podría haber formas de acelerar la detección de sombras del sistema y automatizar el proceso de anotar áreas específicas para la detección de sombras.
Este trabajo fue financiado por el Toyota Research Institute.
Fuente de la historia :
Materiales proporcionado por Instituto de Tecnología de Massachusetts . Original escrito por Rob Matheson. Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :