Las cámaras inteligentes son el próximo hito en el procesamiento de imágenes y video Un equipo de investigadores de la Cátedra de Comunicaciones Multimedia y Procesamiento de Señales en Friedrich-Alexander-Universität Erlangen-Nürnberg FAU ha desarrollado una cámara inteligente que logra no solo un alto nivel espacial yresolución temporal pero también espectral. La cámara tiene una amplia gama de aplicaciones que pueden mejorar la protección del medio ambiente y las medidas de conservación de recursos, así como la conducción autónoma o la agricultura moderna. Los resultados de la investigación se han publicado como una publicación de acceso abierto.
'La investigación hasta ahora se ha centrado principalmente en aumentar la resolución espacial y temporal, lo que significa el número de megapíxeles o imágenes por segundo', explica el profesor Dr. Jürgen Seiler. 'Resolución espectral - la longitud de onda y por lo tanto la percepción de colores -- se ha ajustado en gran medida para que coincida con la vista humana durante el desarrollo de las cámaras, que simplemente corresponde a la medición de los colores rojo, verde y azul. Sin embargo, hay mucha más información oculta en el espectro de luz que se puede utilizar para una amplia gama de tareas.. Por ejemplo, sabemos que algunos animales usan espectros de luz adicionales para cazar y buscar comida. '
Tres resoluciones en una cámara
Seiler, que es ingeniero eléctrico, por lo tanto, ha desarrollado una cámara multiespectral de alta resolución que mejora la percepción humana con su equipo en la Cátedra de Comunicaciones Multimedia y Procesamiento de Señales LMS dirigida por el Prof.Dr. Kaup en FAU.Combina las tres resoluciones espacial, temporal y espectral en una solución rentable. 'Hasta ahora, solo existían métodos extremadamente costosos y complejos para medir los rangos de luz ultravioleta o infrarroja o bandas espectrales individuales para aplicaciones industriales especiales.aplicaciones ", dice Seiler." Buscamos un modelo rentable y pudimos desarrollar una cámara multiespectral muy rentable ".
Los investigadores conectaron varias cámaras estándar de bajo costo con varios filtros espectrales para formar una matriz de cámaras multiespectrales. "Luego calculamos una imagen para combinar la información espectral de cada sensor", explica Nils Genser, investigador asociado en LMS.'Este nuevo concepto nos permite determinar con precisión los materiales de cada objeto capturado utilizando una sola imagen'.
Al mismo tiempo, la nueva cámara es muy superior a los sistemas existentes en términos de resolución espacial, temporal y espectral. Como los alrededores son registrados por varios 'ojos' como es el caso de la vista humana, el sistema también proporciona unaindicación precisa de la profundidad. Esto significa que el sistema no solo determina con precisión el color y ciertas propiedades materiales de los objetos que captura, sino también la distancia entre ellos y la cámara.
Ideal para conducción autónoma y tecnología ambiental
La conducción autónoma es una aplicación potencial para estas nuevas cámaras inteligentes. 'Gracias a nuestra nueva tecnología, ahora se ha abierto toda una gama de soluciones a varios problemas', dice Seiler. 'En el rango de infrarrojos, por ejemplo, podemos diferenciar entrepersonas reales y señales mediante la firma térmica. Para la conducción nocturna, podemos detectar animales que cruzan la carretera con suficiente advertencia. '
Las cámaras multiespectrales de alta resolución también podrían usarse para proteger el medio ambiente y conservar los recursos. 'Varios plásticos se diferencian significativamente entre sí en varios rangos del espectro, que es algo que la nueva cámara inteligente puede detectar de manera confiable', Genserenfatiza. "Grandes cantidades de plásticos simplemente se queman en lugar de separarlos para reciclarlos, ya que tienen una apariencia similar. Ahora podemos separarlos de manera confiable".
Fuente de la historia :
Materiales proporcionado por Universidad de Erlangen-Nuremberg . Nota: el contenido se puede editar por estilo y longitud.
Referencia de la revista :
cite esta página :