Con el objetivo de llevar un razonamiento más humano a los vehículos autónomos, los investigadores del MIT han creado un sistema que usa solo mapas simples y datos visuales para permitir que los autos sin conductor naveguen por rutas en entornos nuevos y complejos.
Los conductores humanos son excepcionalmente buenos para navegar por carreteras por las que no han conducido antes, usando la observación y herramientas simples. Simplemente hacemos coincidir lo que vemos a nuestro alrededor con lo que vemos en nuestros dispositivos GPS para determinar dónde estamos y hacia dónde debemos irLos autos sin conductor, sin embargo, luchan con este razonamiento básico. En cada área nueva, los autos primero deben mapear y analizar todas las carreteras nuevas, lo cual requiere mucho tiempo. Los sistemas también se basan en mapas complejos, generalmente generados por 3-D escaneos, que son computacionalmente intensivos para generar y procesar sobre la marcha.
En un artículo presentado en la Conferencia Internacional de Robótica y Automatización de esta semana, los investigadores del MIT describen un sistema de control autónomo que "aprende" los patrones de conducción de los conductores humanos mientras navegan por las carreteras en un área pequeña, utilizando solo datos de las cámaras de video.y un simple mapa similar a un GPS. Luego, el sistema capacitado puede controlar un automóvil sin conductor a lo largo de una ruta planificada en un área completamente nueva, imitando al conductor humano.
De manera similar a los conductores humanos, el sistema también detecta cualquier desajuste entre su mapa y las características de la carretera. Esto ayuda al sistema a determinar si su posición, sensores o mapas son incorrectos, a fin de corregir el rumbo del automóvil.
Para entrenar el sistema inicialmente, un operador humano controlaba un Toyota Prius sin conductor, equipado con varias cámaras y un sistema de navegación GPS básico, recopilando datos de las calles suburbanas locales, incluidas varias estructuras de carreteras y obstáculos. Cuando se implementa de forma autónoma, el sistemacondujo el automóvil a lo largo de un camino planificado previamente en un área boscosa diferente, designada para pruebas de vehículos autónomos.
"Con nuestro sistema, no es necesario entrenar en cada camino de antemano", dice el primer autor Alexander Amini, un estudiante graduado del MIT. "Puede descargar un mapa nuevo para que el automóvil navegue por caminos que nunca antes había visto. "
"Nuestro objetivo es lograr una navegación autónoma que sea robusta para conducir en nuevos entornos", agrega la coautora Daniela Rus, directora del Laboratorio de Ciencias de la Computación e Inteligencia Artificial CSAIL y la Profesora Andrew y Erna Viterbi de Ingeniería Eléctrica yCiencias de la Computación ". Por ejemplo, si entrenamos un vehículo autónomo para conducir en un entorno urbano como las calles de Cambridge, el sistema también debería poder conducir sin problemas en el bosque, incluso si ese es un entorno que nunca antes había visto.. "
Junto a Rus y Amini en el artículo están Guy Rosman, investigador del Toyota Research Institute, y Sertac Karaman, profesor asociado de aeronáutica y astronáutica en el MIT.
navegación punto a punto
Los sistemas de navegación tradicionales procesan datos de sensores a través de múltiples módulos personalizados para tareas como localización, mapeo, detección de objetos, planificación de movimiento y control de dirección. Durante años, el grupo de Rus ha estado desarrollando sistemas de navegación "de extremo a extremo", queprocesar los datos sensoriales ingresados y los comandos de dirección de salida, sin necesidad de módulos especializados.
Hasta ahora, sin embargo, estos modelos se diseñaron estrictamente para seguir la carretera de manera segura, sin ningún destino real en mente. En el nuevo artículo, los investigadores avanzaron en su sistema de extremo a extremo para conducir de un objetivo a otro, en unambiente invisible. Para hacerlo, los investigadores entrenaron su sistema para predecir una distribución de probabilidad completa sobre todos los comandos de dirección posibles en un instante dado mientras se conduce.
El sistema utiliza un modelo de aprendizaje automático llamado red neuronal convolucional CNN, que se usa comúnmente para el reconocimiento de imágenes. Durante el entrenamiento, el sistema observa y aprende cómo conducir un conductor humano. La CNN correlaciona las rotaciones del volante con las curvaturas de la carretera.observa a través de cámaras y un mapa ingresado. Con el tiempo, aprende el comando de dirección más probable para diversas situaciones de conducción, como carreteras rectas, intersecciones de cuatro vías o en forma de T, bifurcaciones y rotativas.
"Inicialmente, en una intersección en forma de T, hay muchas direcciones diferentes en las que el automóvil podría girar", dice Rus. "El modelo comienza pensando en todas esas direcciones, pero a medida que ve más y más datos sobre lo que hacen las personas,verá que algunas personas giran a la izquierda y otras a la derecha, pero nadie va recto. Se descarta el recto como una posible dirección, y el modelo aprende que, en las intersecciones en forma de T, solo puede moverse hacia la izquierda o hacia la derecha ".
¿Qué dice el mapa?
En las pruebas, los investigadores ingresan al sistema un mapa con una ruta elegida al azar. Al conducir, el sistema extrae características visuales de la cámara, lo que le permite predecir las estructuras de la carretera. Por ejemplo, identifica una señal o línea de alto distantese interrumpe al costado de la carretera como señales de una próxima intersección. En cada momento, utiliza su distribución de probabilidad predicha de los comandos de dirección para elegir el más probable para seguir su ruta.
Es importante destacar que, dicen los investigadores, el sistema usa mapas que son fáciles de almacenar y procesar. Los sistemas de control autónomos generalmente usan escaneos LIDAR para crear mapas masivos y complejos que requieren aproximadamente 4,000 gigabytes 4 terabytes de datos para almacenar solo la ciudad deSan Francisco. Para cada nuevo destino, el automóvil debe crear nuevos mapas, lo que equivale a toneladas de procesamiento de datos. Sin embargo, los mapas utilizados por el sistema de los investigadores capturan el mundo entero con solo 40 gigabytes de datos.
Durante la conducción autónoma, el sistema también compara continuamente sus datos visuales con los datos del mapa y observa cualquier desajuste. Al hacerlo, el vehículo autónomo puede determinar mejor dónde se encuentra en la carretera. Y garantiza que el automóvil permanezca en el camino más seguro siestá recibiendo información de entrada contradictoria: si, por ejemplo, el automóvil está circulando en una carretera recta sin giros, y el GPS indica que el automóvil debe girar a la derecha, el automóvil sabrá que debe seguir conduciendo recto o detenerse.
"En el mundo real, los sensores fallan", dice Amini. "Queremos asegurarnos de que el sistema sea resistente a diferentes fallas de diferentes sensores mediante la construcción de un sistema que pueda aceptar estas entradas ruidosas y aún así navegar y localizarse correctamenteen el camino."
Fuente de la historia :
Materiales proporcionado por Instituto de Tecnología de Massachusetts . Original escrito por Rob Matheson. Nota: el contenido se puede editar por estilo y longitud.
cite esta página :