Los investigadores del MIT han desarrollado una novedosa óptica de fotografía que captura imágenes basadas en el tiempo de reflejo de la luz dentro de la óptica, en lugar del enfoque tradicional que se basa en la disposición de los componentes ópticos. Estos nuevos principios, dicen los investigadores, abren puertas a nuevas capacidadespara cámaras sensibles al tiempo o a la profundidad, que no son posibles con la óptica de fotografía convencional.
Específicamente, los investigadores diseñaron nuevas ópticas para un sensor ultrarrápido llamado cámara rayada que resuelve imágenes de pulsos de luz ultracortos. Las cámaras rayadas y otras cámaras ultrarrápidas se han utilizado para hacer un video de un billón de cuadros por segundo, escanear a través de cerradolibros, y proporcionar mapas de profundidad de una escena tridimensional, entre otras aplicaciones. Dichas cámaras se han basado en ópticas convencionales, que tienen varias limitaciones de diseño. Por ejemplo, una lente con una distancia focal determinada, medida en milímetros o centímetros, tiene quesentarse a una distancia de un sensor de imágenes igual o mayor que esa distancia focal para capturar una imagen. Esto básicamente significa que las lentes deben ser muy largas.
en un artículo publicado en esta semana Fotónica de la naturaleza , los investigadores del MIT Media Lab describen una técnica que hace que una señal de luz se refleje de un lado a otro de los espejos cuidadosamente colocados dentro del sistema de lentes. Un sensor de imagen rápida captura una imagen separada en cada momento de reflexión. El resultado es una secuencia de imágenes:cada uno correspondiente a un punto diferente en el tiempo y a una distancia diferente de la lente. Se puede acceder a cada imagen en su momento específico. Los investigadores han acuñado esta técnica "óptica plegada en el tiempo".
"Cuando tienes una cámara con sensor rápido, para resolver la luz que pasa a través de la óptica, puedes cambiar el tiempo por el espacio", dice Barmak Heshmat, primer autor del artículo. "Ese es el concepto central del tiempo plegado ... Mirasen la óptica en el momento adecuado, y ese tiempo es igual a mirarlo a la distancia correcta. Luego, puede organizar la óptica de nuevas maneras que tienen capacidades que antes no eran posibles ".
En su estudio, los investigadores demuestran tres usos de la óptica plegada en el tiempo para cámaras ultrarrápidas y otros dispositivos de imágenes sensibles a la profundidad. Estas cámaras, también llamadas cámaras de "tiempo de vuelo", miden el tiempo que toma un pulsode luz para reflejarse en una escena y regresar a un sensor, para estimar la profundidad de la escena tridimensional.
La nueva arquitectura óptica incluye un conjunto de espejos paralelos semirreflectantes que reducen o "pliegan" la distancia focal cada vez que la luz se refleja entre los espejos. Al colocar el conjunto de espejos entre la lente y el sensor, los investigadores condensaron la distanciade disposición óptica por un orden de magnitud sin dejar de capturar una imagen de la escena.
Los coautores del artículo son Matthew Tancik, un estudiante graduado en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT; Guy Satat, estudiante de doctorado en el Grupo de Cultura de la Cámara en el Laboratorio de Medios; y Ramesh Raskar, profesor asociado de mediosartes y ciencias y director del Camera Culture Group.
Doblar el camino óptico en el tiempo
El sistema de los investigadores consiste en un componente que proyecta un pulso láser de femtosegundos cuadrillonésima de segundo en una escena para iluminar los objetos objetivo. La óptica de fotografía tradicional cambia la forma de la señal de luz a medida que viaja a través de los lentes curvos.el cambio crea una imagen en el sensor.
Pero, con la óptica de los investigadores, en lugar de dirigirse directamente al sensor, la señal rebota de un lado a otro entre los espejos dispuestos con precisión para atrapar y reflejar la luz. Cada una de estas reflexiones se denomina "viaje de ida y vuelta".ida y vuelta, el sensor programa algo de luz en la imagen en un intervalo de tiempo específico, por ejemplo, una instantánea de 1 nanosegundo cada 30 nanosegundos.
Una innovación clave es que cada viaje de ida y vuelta de la luz mueve el punto focal, donde se coloca un sensor para capturar una imagen, más cerca de la lente. Esto permite que la lente se condense drásticamente. Digamos que una cámara de rayas quiere capturaruna imagen con la longitud focal larga de una lente tradicional. Con la óptica plegada en el tiempo, el primer viaje de ida y vuelta tira del punto focal aproximadamente el doble de la longitud del conjunto de espejos más cerca de la lente, y cada viaje de ida y vuelta posterior trae el punto focalcada vez más cerca. Dependiendo del número de viajes de ida y vuelta, se puede colocar un sensor muy cerca de la lente.
Al colocar el sensor en un punto focal preciso, determinado por el total de viajes de ida y vuelta, la cámara puede capturar una imagen final nítida, así como diferentes etapas de la señal de luz, cada una codificada en un momento diferente, a medida que la señal cambia de forma aproduzca la imagen las primeras tomas serán borrosas, pero después de varios viajes de ida y vuelta el objeto objetivo se enfocará.
En su artículo, los investigadores demuestran esto al obtener imágenes de un pulso de luz de femtosegundo a través de una máscara grabada con "MIT", colocada a 53 centímetros de la apertura de la lente. Para capturar la imagen, la lente tradicional de distancia focal de 20 centímetros tendría quesiéntese a unos 32 centímetros del sensor. Sin embargo, la óptica plegada en el tiempo enfocó la imagen después de cinco viajes de ida y vuelta, con solo una distancia de sensor de lente de 3,1 centímetros.
Esto podría ser útil, dice Heshmat, en el diseño de lentes telescópicas más compactas que capturen, por ejemplo, señales ultrarrápidas del espacio, o para diseñar lentes más pequeñas y livianas para satélites para obtener imágenes de la superficie del suelo.
Multizoom y multicolor
Los investigadores luego tomaron imágenes de dos patrones espaciados unos 50 centímetros entre sí, pero cada uno dentro de la línea de visión de la cámara. Un patrón "X" estaba a 55 centímetros del lente, y un patrón "II" estaba a 4 centímetros dellente. Al reorganizar con precisión la óptica, en parte, al colocar la lente entre los dos espejos, formaron la luz de manera que cada viaje de ida y vuelta creara un nuevo aumento en una sola adquisición de imagen. De esa manera, es comosi la cámara se acerca con cada viaje de ida y vuelta. Cuando dispararon el láser en la escena, el resultado fue dos imágenes separadas y enfocadas, creadas en una sola toma: el patrón X capturado en el primer viaje de ida y vuelta y el patrón II capturado enel segundo viaje de ida y vuelta
Luego, los investigadores demostraron una cámara multiespectral ultrarrápida o multicolor. Diseñaron dos espejos que reflejan el color y un espejo de banda ancha, uno sintonizado para reflejar un color, colocado más cerca de la lente y otro sintonizado para reflejar un segundo color,colocados más atrás de la lente. Tomaron imágenes de una máscara con una "A" y una "B", con la A iluminada del segundo color y la B iluminada del primer color, ambas durante algunas décimas de picosegundo.
Cuando la luz viajaba hacia la cámara, las longitudes de onda del primer color se reflejaban inmediatamente de un lado a otro en la primera cavidad, y el sensor registraba la hora. Sin embargo, las longitudes de onda del segundo color pasaban a través de la primera cavidad hacia el interior de la cámara.segundo, retrasando un poco su tiempo al sensor. Debido a que los investigadores sabían qué longitud de onda golpearía el sensor en ese momento, luego superpusieron los colores respectivos en la imagen: la primera longitud de onda era el primer color, y el segundo era el segundo colorEsto podría usarse en cámaras de detección de profundidad, que actualmente solo graban infrarrojos, dice Heshmat.
Heshmat dice que una característica clave del documento es que abre las puertas para muchos diseños ópticos diferentes al ajustar el espacio entre cavidades o al usar diferentes tipos de cavidades, sensores y lentes ". El mensaje central es que cuando tienes unSi la cámara es rápida o tiene un sensor de profundidad, no necesita diseñar la óptica como lo hacía con las cámaras antiguas. Puede hacer mucho más con la óptica mirándolas en el momento adecuado ", dice Heshmat.
Fuente de la historia :
Materiales proporcionado por Instituto de Tecnología de Massachusetts . Original escrito por Rob Matheson. Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cite esta página :