Mueve tu cabeza hacia la izquierda, ahora hacia la derecha. La forma en que escuchas e interpretas los sonidos a tu alrededor cambia a medida que te mueves. Así es como funciona el sonido en el mundo real. Ahora imagina si funciona de esa manera mientras escuchas la grabación de unconcierto o jugar un videojuego en realidad virtual.
Durante Acoustics '17 Boston, la tercera reunión conjunta de la Acoustical Society of America y la European Acoustics Association se llevará a cabo del 25 al 29 de junio en Boston, Massachusetts, Ivan J. Tashev y Hannes Gamper, con el Grupo de Investigación de Audio y Acústica de Microsoft, explicará cómo están utilizando las funciones de transferencia relacionadas con la cabeza HRTF para crear un entorno de sonido inmersivo.
Los HRTF son los patrones de directividad de los oídos humanos y dado que cada ser humano es único, capturar los HRTF de una persona es el equivalente a las huellas digitales. Los oídos de cada persona son únicos, por lo que la huella de la anatomía de una persona en un sonido es completamente diferente de la de otro.
"El sonido interactúa no solo con el área sino también con el oyente", dijo Gamper. El sonido no solo va directamente al oído del oyente, sino que interactúa con la forma de la cabeza, los hombros y las orejas del oyente ". Todo el físicoLas interacciones con el sonido crean esta huella digital acústica única que el cerebro está capacitado para comprender o decodificar ", dijo Gamper." Esta huella digital se captura en el HRTF ".
Utilizando una base de datos de mediciones de HRTF de 350 personas, la base de datos más grande de HRTF, Tashev, un arquitecto de proyectos senior, y Gamper, un investigador, están trabajando para crear un entorno de audio más personalizado e inmersivo. En realidad mixta, donde unla imagen digital está impresa en su entorno real, esta tecnología adjuntará el sonido a esa imagen. Si hay un dragón en la esquina de la habitación, lo escuchará y lo verá.
"Para que podamos crear esta ilusión del sonido espacial que está en algún lugar del espacio, tenemos que engañar al cerebro", dijo Gamper.
Hay tres componentes principales en el trabajo de Tashev y Gamper: audio espacial, seguimiento de la cabeza y personalización de la audición espacial. El audio espacial es el concepto de filtrado de audio ya que proviene de una determinada dimensión. Con el seguimiento de la cabeza, el sonido cambia a medida que el oyente se muevesu cabeza. La audición espacial, la capacidad de localizar la dirección del sonido, es única para cada persona. La tercera es la personalización de la audición espacial: la capacidad de localizar la dirección del sonido.
"De esos tres componentes, nuestro sistema de audio espacial y los filtros de audición espacial están mejorando la percepción del usuario para poder decir, '¡Sí, ese sonido vino de allí!'", Explicó Tashev.
"El objetivo general de la personalización es hacer que [la experiencia] sea más convincente, que sea más precisa y, a la larga, mejorar su calidad", dijo Tashev.
Para que esta personalización funcione, los investigadores necesitan muchos datos. Las 350 personas en su base de datos HRTF tenían escaneos 3D de alta resolución, que incluían detalles alrededor de las orejas, la cabeza y el torso. Para obtener menos datos, pero aúnCon una gran cantidad de personalización, los investigadores podrían pedir métricas de usuario específicas, como altura, profundidad y ancho de la cabeza, y luego buscar en su base de datos de 350 personas una coincidencia cercana. Eventualmente, dijeron, podría ser posible tomar una sola imagendesde una cámara de profundidad o un XBox Kinect y use modelos para mapear una plantilla a partir de un escaneo tridimensional de esa imagen.
"Nos preocupamos por impactar la vida de las personas de manera positiva", dijo Tashev.
Fuente de la historia :
Materiales proporcionados por Sociedad Acústica de América . Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :