Si crees que los autos autónomos no pueden llegar lo suficientemente pronto, no estás solo. Pero programar computadoras para reconocer objetos es un desafío técnico, especialmente porque los científicos no entienden completamente cómo lo hacen nuestros propios cerebros.
Ahora, los investigadores del Instituto Salk han analizado cómo las neuronas en una parte crítica del cerebro, llamada V2, responden a escenas naturales, proporcionando una mejor comprensión del procesamiento de la visión. El trabajo se describe en Comunicaciones de la naturaleza el 8 de junio de 2017.
"Comprender cómo el cerebro reconoce los objetos visuales es importante no solo por el bien de la visión, sino también porque proporciona una ventana sobre cómo funciona el cerebro en general", dice Tatyana Sharpee, profesora asociada en el Laboratorio de Neurobiología Computacional de Salk y seniorautor del artículo: "Gran parte de nuestro cerebro está compuesto por una unidad computacional repetida, llamada columna cortical. En visión, especialmente, podemos controlar las entradas al cerebro con una precisión exquisita, lo que hace posible analizar cuantitativamente cómo se transforman las señales en elcerebro."
Aunque a menudo damos por sentado la capacidad de ver, esta capacidad deriva de conjuntos de transformaciones matemáticas complejas que aún no podemos reproducir en una computadora, según Sharpee. De hecho, más de un tercio de nuestro cerebro está dedicadoexclusivamente para la tarea de analizar escenas visuales.
Nuestra percepción visual comienza en el ojo con píxeles claros y oscuros. Estas señales se envían a la parte posterior del cerebro a un área llamada V1 donde se transforman para corresponder a los bordes en las escenas visuales. De alguna manera, como resultado de variosLuego de las transformaciones posteriores de esta información, podemos reconocer caras, automóviles y otros objetos y si se están moviendo. La precisión de este reconocimiento sigue siendo un misterio, en parte porque las neuronas que codifican los objetos responden de formas complicadas.
Ahora, Sharpee y Ryan Rowekamp, un asociado de investigación postdoctoral en el grupo de Sharpee, han desarrollado un método estadístico que toma estas respuestas complejas y las describe de manera interpretable, que podrían usarse para ayudar a decodificar la visión para visión simulada por computadora.En su modelo, el equipo utilizó datos disponibles públicamente que muestran las respuestas cerebrales de los primates que miran películas de escenas naturales como los paisajes forestales de la base de datos Collaborative Research in Computational Neuroscience CRCNS.
"Aplicamos nuestra nueva técnica estadística para descubrir qué características de la película estaban causando que las neuronas V2 cambiaran sus respuestas", dice Rowekamp. "Curiosamente, encontramos que las neuronas V2 respondían a combinaciones de bordes".
El equipo reveló que las neuronas V2 procesan la información visual de acuerdo con tres principios: primero, combinan bordes que tienen orientaciones similares, aumentando la robustez de la percepción a pequeños cambios en la posición de las curvas que forman los límites de los objetos. Segundo, si se activa una neuronapor un borde de una orientación y posición particulares, entonces la orientación a 90 grados de esa será supresora en la misma ubicación, una combinación denominada "supresión de orientación cruzada". Estas combinaciones de bordes orientadas en cruz se ensamblan de varias maneras para permitirnosdetectar varias formas visuales. El equipo descubrió que la orientación cruzada era esencial para la detección precisa de formas. El tercer principio es que los patrones relevantes se repiten en el espacio de manera que puedan ayudar a percibir las superficies texturizadas de los árboles o el agua y los límites entre ellos, como en el impresionismopinturas
Los investigadores incorporaron los tres principios de organización en un modelo que llamaron el modelo convolucional cuadrático, que puede aplicarse a otros conjuntos de datos experimentales. El procesamiento visual es probable que sea similar a la forma en que el cerebro procesa los olores, el tacto o los sonidos, los investigadorespor ejemplo, el trabajo podría dilucidar el procesamiento de datos de estas áreas también.
"Los modelos en los que había trabajado antes no eran totalmente compatibles con los datos, o no eran totalmente compatibles", dice Rowekamp. "Así que fue realmente satisfactorio cuando la idea de combinar el reconocimiento de bordes con la sensibilidad a la textura comenzó a pagarfuera como una herramienta para analizar y comprender datos visuales complejos "
Pero la aplicación más inmediata podría ser mejorar los algoritmos de reconocimiento de objetos para automóviles autónomos u otros dispositivos robóticos. "Parece que cada vez que agregamos elementos de cálculo que se encuentran en el cerebro a los algoritmos de visión por computadora, su rendimientomejora ", dice Sharpee.
Fuente de la historia :
Materiales proporcionado por Instituto Salk . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cite esta página :