Para todos nuestros avances tecnológicos, nada supera la evolución cuando se trata de investigación y desarrollo. Tome arañas saltarinas. Estos pequeños arácnidos tienen una percepción de profundidad impresionante a pesar de sus pequeños cerebros, lo que les permite saltar con precisión sobre objetivos desprevenidos desde varias longitudes de cuerpo.
Inspirados por estas arañas, los investigadores de la Escuela de Ingeniería y Ciencias Aplicadas SEAS John A. Paulson de Harvard han desarrollado un sensor de profundidad compacto y eficiente que podría usarse a bordo de microrobots, en pequeños dispositivos portátiles o en dispositivos virtuales y ligerosauriculares de realidad aumentada. El dispositivo combina una metalena plana multifuncional con un algoritmo ultraeficiente para medir la profundidad en una sola toma.
"Evolution ha producido una amplia variedad de configuraciones ópticas y sistemas de visión que se adaptan a diferentes propósitos", dijo Zhujun Shi, un candidato a doctorado en el Departamento de Física y co-primer autor del artículo ". Diseño ópticoy la nanotecnología finalmente nos permiten explorar sensores de profundidad artificiales y otros sistemas de visión que son igualmente diversos y efectivos ".
La investigación se publica en Actas de la Academia Nacional de Ciencias PNAS .
Muchos de los sensores de profundidad actuales, como los de los teléfonos, automóviles y consolas de videojuegos, utilizan fuentes de luz integradas y múltiples cámaras para medir la distancia. Face ID en un teléfono inteligente, por ejemplo, utiliza miles de puntos láser para mapear los contornos dela cara. Esto funciona para dispositivos grandes con espacio para baterías y computadoras rápidas, pero ¿qué pasa con los dispositivos pequeños con potencia y cómputo limitados, como relojes inteligentes o microrobots?
La evolución, como resultado, ofrece muchas opciones.
Los humanos miden la profundidad usando la visión estereofónica, lo que significa que cuando miramos un objeto, cada uno de nuestros dos ojos está recogiendo una imagen ligeramente diferente. Intente esto: sostenga un dedo directamente frente a su cara y alterne la apertura y el cierre de cada uno de sus ojos¿Ves cómo se mueve tu dedo? Nuestros cerebros toman esas dos imágenes, las examinan píxel por píxel y, en función de cómo cambian los píxeles, calculan la distancia al dedo.
"Ese cálculo de coincidencia, donde tomas dos imágenes y realizas una búsqueda de las partes que corresponden, es computacionalmente pesado", dijo Todd Zickler, profesor William and Ami Kuan Danoff de Ingeniería Eléctrica e Informática en SEAS y co-seniorautor del estudio: "Los humanos tienen un cerebro grande y agradable para esos cálculos, pero las arañas no".
Las arañas saltarinas han desarrollado un sistema más eficiente para medir la profundidad. Cada ojo principal tiene unas pocas retinas semitransparentes dispuestas en capas, y estas retinas miden múltiples imágenes con diferentes cantidades de desenfoque. Por ejemplo, si una araña saltadora mira unmosca de la fruta con uno de sus ojos principales, la mosca aparecerá más nítida en la imagen de una retina y más borrosa en otra. Este cambio en la falta de definición codifica información sobre la distancia a la mosca.
En la visión por computadora, este tipo de cálculo de distancia se conoce como profundidad desde el desenfoque. Pero hasta ahora, la replicación de Nature ha requerido cámaras grandes con componentes internos motorizados que pueden capturar imágenes enfocadas de manera diferente con el tiempo. Esto limita la velocidad y las aplicaciones prácticas deel sensor
Ahí es donde entra la metalens.
Federico Capasso, el Profesor Robert L. Wallace de Física Aplicada y Vinton Hayes Senior Research Fellow en Ingeniería Eléctrica en SEAS y coautor principal del artículo, y su laboratorio ya han demostrado metalenses que pueden producir simultáneamente varias imágenes que contienen información diferenteA partir de esa investigación, el equipo diseñó una metalens que puede producir simultáneamente dos imágenes con diferentes desenfoques.
"En lugar de usar retina en capas para capturar múltiples imágenes simultáneas, como hacen las arañas saltarinas, la metalens divide la luz y forma dos imágenes diferentes desenfocadas una al lado de la otra en un fotosensor", dijo Shi, quien es parte del laboratorio de Capasso.
Un algoritmo ultraeficiente, desarrollado por el grupo de Zickler, luego interpreta las dos imágenes y construye un mapa de profundidad para representar la distancia del objeto.
"Ser capaz de diseñar metasuperficies y algoritmos computacionales juntos es muy emocionante", dijo Qi Guo, un candidato a doctorado en el laboratorio de Zickler y coautor del artículo. "Esta es una nueva forma de crear sensores computacionales, yabre la puerta a muchas posibilidades "
"Los metalenses son una tecnología que cambia el juego debido a su capacidad para implementar funciones ópticas nuevas y existentes de manera mucho más eficiente, más rápida y con mucho menos volumen y complejidad que las lentes existentes", dijo Capasso. "La fusión de los avances en diseño óptico e imagen computacional hanos llevó a esta nueva cámara de profundidad que abrirá una amplia gama de oportunidades en ciencia y tecnología ".
Este documento fue escrito por Yao-Wei Huang, Emma Alexander y Cheng-Wei Qiu, de la Universidad Nacional de Singapur. Fue apoyado por la Oficina de Investigación Científica de la Fuerza Aérea y la Fundación Nacional de Ciencias de EE. UU.
Fuente de la historia :
Materiales proporcionado por Harvard John A. Paulson School of Engineering and Applied Sciences . Original escrito por Leah Burrows. Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :