Un equipo de investigación de la Universidad de Sussex ha demostrado el primer proyector de sonido que puede rastrear a un individuo en movimiento y entregar un mensaje acústico mientras se mueven, a una conferencia de tecnología y medios de alto perfil en Los Ángeles.
El Dr. Gianluca Memoli y sus colegas demostraron lo que creen que es el primer proyector de sonido del mundo con un objetivo autozoom en una charla en la 46a Conferencia y Exposición Internacional sobre Gráficos por Computadora y Técnicas Interactivas SIGGRAPH 2019 esta semana.
El Dr. Memoli, profesor de nuevas interfaces e interacciones en la Facultad de Ingeniería e Informática de la Universidad de Sussex que dirigió la investigación, dijo: "Al diseñar materiales acústicos a una escala más pequeña que la longitud de onda del sonido para crear lentes acústicas delgadas, elEl cielo es el límite en nuevas aplicaciones acústicas potenciales.
"Siglos de diseño óptico ahora se pueden aplicar a la acústica. Creemos que esta tecnología se puede aprovechar para muchas aplicaciones positivas, incluidos mensajes de alarma personalizados en una multitud, experiencias inmersivas sin auriculares, el equivalente de audio de efectos especiales".
El sistema funciona con un software de seguimiento facial interno que se utiliza para pilotar un telescopio acústico controlado por Arduino para enfocar el sonido en un objetivo en movimiento.
La cámara de bajo costo puede rastrear a una persona y controlar la distancia entre dos lentes acústicos, entregando una esfera de sonido de alrededor de 6 cm de diámetro frente al objetivo, que luego responde al movimiento del individuo.
Joshua Kybett, el estudiante de segundo año en Sussex que diseñó el seguimiento, agrega: "Dado que las lentes acústicas se pueden imprimir en 3D por solo £ 100, queríamos una técnica de seguimiento que funcionara con un bajo presupuesto similar. Con un £ 10cámara web, esta es una décima parte de los sistemas de seguimiento estándar.
"Además, nuestro método ha sido diseñado para requerir el consentimiento del usuario para funcionar. Este requisito garantiza que la tecnología no se pueda usar de manera intrusiva, ni entregar sonido a una audiencia poco dispuesta"
Thomas Graham, investigador de la Facultad de Ingeniería e Informática que realiza las mediciones y las simulaciones, dice: "En nuestro estudio, nos inspiraron las cámaras autozoom que extienden sus objetivos para que coincidan con la distancia de un objetivo".
"Utilizamos un sistema muy similar, incluso con el mismo sonido mecánico del motor. Creo que nuestro trabajo es también el primer paso hacia cámaras acústicas portátiles de bajo costo".
El equipo de investigación ahora está trabajando para ampliar las capacidades del sistema más allá del seguimiento en una sola dirección y más de una octava, para garantizar que se pueda ampliar para cubrir la mayoría de las melodías básicas y del habla y, finalmente, para entregar una pieza musical completa.
Arash PourYazdan, quien diseñó la electrónica, dijo: "SIGGRAPH es un lugar donde se discuten ideas emergentes y futuristas. Esta es la conferencia donde gigantes del entretenimiento como Disney, Marvel y Microsoft se reúnen para compartir sus visiones: fue el lugar perfectopara que demostremos cómo pensamos que el sonido podría ser manejado en el futuro "
Fuente de la historia :
Materiales proporcionado por Universidad de Sussex . Original escrito por Neil Vowles. Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :