Nuestros cerebros tienen una habilidad extraordinaria para elegir voces individuales en un entorno ruidoso, como una cafetería llena de gente o una calle concurrida de la ciudad. Esto es algo que incluso los audífonos más avanzados tienen dificultades para hacer. Pero ahora los ingenieros de Columbia están anunciando unTecnología experimental que imita la aptitud natural del cerebro para detectar y amplificar cualquier voz de muchas. Desarrollado por inteligencia artificial, este audífono controlado por el cerebro actúa como un filtro automático, monitoreando las ondas cerebrales de los usuarios y aumentando la voz en la que quieren enfocarse.
Aunque todavía se encuentra en las primeras etapas de desarrollo, la tecnología es un paso significativo hacia mejores audífonos que permitiría a los usuarios conversar con las personas que los rodean sin problemas y de manera eficiente. Este logro se describe hoy en día Avances científicos .
"El área del cerebro que procesa el sonido es extraordinariamente sensible y poderosa; puede amplificar una voz sobre otras, aparentemente sin esfuerzo, mientras que las audiencias de hoy todavía palidecen en comparación", dijo Nima Mesgarani, PhD, investigadora principal en Mortimer B. de Columbia.Zuckerman Mind Brain Behavior Institute y el autor principal del artículo. "Al crear un dispositivo que aprovecha el poder del cerebro en sí, esperamos que nuestro trabajo conduzca a mejoras tecnológicas que permitan a los cientos de millones de personas con discapacidad auditiva en todo el mundo comunicarse de la misma manera.fácilmente como lo hacen sus amigos y familiares "
Los audífonos modernos son excelentes para amplificar el habla mientras suprimen ciertos tipos de ruido de fondo, como el tráfico. Pero luchan por aumentar el volumen de una voz individual sobre otras. Los científicos llaman a esto el problema del cóctel, llamado así por la cacofonía de vocesque se mezclan durante fiestas ruidosas
"En lugares concurridos, como fiestas, los audífonos tienden a amplificar todos los altavoces a la vez", dijo el Dr. Mesgarani, quien también es profesor asociado de ingeniería eléctrica en Columbia Engineering. "Esto dificulta severamente la capacidad de un usuario para conversar de manera efectiva,esencialmente aislarlos de las personas que los rodean "
El audífono controlado por el cerebro del equipo Columbia es diferente. En lugar de depender únicamente de amplificadores de sonido externos, como micrófonos, también monitorea las propias ondas cerebrales del oyente.
"Anteriormente, habíamos descubierto que cuando dos personas hablan entre sí, las ondas cerebrales del hablante comienzan a parecerse a las ondas cerebrales del oyente", dijo el Dr. Mesgarani.
Utilizando este conocimiento, el equipo combinó potentes algoritmos de separación del habla con redes neuronales, modelos matemáticos complejos que imitan las habilidades computacionales naturales del cerebro. Crearon un sistema que primero separa las voces de los hablantes individuales de un grupo y luego compara las vocesde cada hablante a las ondas cerebrales de la persona que escucha. El hablante cuyo patrón de voz se asemeja más a las ondas cerebrales del oyente se amplifica sobre el resto.
Los investigadores publicaron una versión anterior de este sistema en 2017 que, aunque prometedora, tenía una limitación clave: tenía que ser entrenada para reconocer a los oradores específicos.
"Si estás en un restaurante con tu familia, ese dispositivo reconocería y decodificaría esas voces por ti", explicó el Dr. Mesgarani. "Pero tan pronto como llegara una nueva persona, como el camarero, el sistemafallar."
El avance de hoy resuelve en gran medida ese problema. Con fondos de Columbia Technology Ventures para mejorar su algoritmo original, el Dr. Mesgarani y los primeros autores Cong Han y James O'Sullivan, PhD, volvieron a aprovechar el poder de las redes neuronales profundas para construir una red más sofisticadamodelo que podría generalizarse a cualquier orador potencial que el oyente encontró.
"Nuestro resultado final fue un algoritmo de separación de voz que funcionó de manera similar a las versiones anteriores pero con una mejora importante", dijo el Dr. Mesgarani. "Podría reconocer y decodificar una voz, cualquier voz, de inmediato".
Para probar la efectividad del algoritmo, los investigadores se asociaron con Ashesh Dinesh Mehta, MD, PhD, neurocirujano del Instituto de Neurología y Neurocirugía de Northwell Health y coautor del artículo de hoy. El Dr. Mehta trata a pacientes con epilepsia, algunos de los cuales deben someterse acirugías regulares.
"Estos pacientes se ofrecieron para escuchar a diferentes oradores mientras nosotros monitoreábamos sus ondas cerebrales directamente a través de electrodos implantados en los cerebros de los pacientes", dijo el Dr. Mesgarani. "Luego aplicamos el algoritmo recientemente desarrollado a esos datos".
El algoritmo del equipo rastreó la atención de los pacientes mientras escuchaban diferentes altavoces que no habían escuchado previamente. Cuando un paciente se enfocaba en un altavoz, el sistema amplificaba automáticamente esa voz. Cuando su atención se desplazó a un altavoz diferente, los niveles de volumencambiado para reflejar ese cambio.
Animados por sus resultados, los investigadores ahora están investigando cómo transformar este prototipo en un dispositivo no invasivo que se pueda colocar externamente en el cuero cabelludo o alrededor del oído. También esperan mejorar y refinar aún más el algoritmo para que pueda funcionar enuna gama más amplia de entornos.
"Hasta ahora, solo lo hemos probado en un ambiente interior", dijo el Dr. Mesgarani. "Pero queremos asegurarnos de que pueda funcionar igual de bien en una calle concurrida de la ciudad o en un restaurante ruidoso, para que donde sea que los usuariosir, pueden experimentar plenamente el mundo y las personas que los rodean "
Este documento se titula "Decodificación de la atención auditiva independiente del orador sin acceso a fuentes de voz limpias". Entre los contribuyentes adicionales se incluyen Yi Luo y Jose Herrero, PhD.
Esta investigación fue apoyada por los Institutos Nacionales de Salud NIDCD-DC014279, el Instituto Nacional de Salud Mental R21MH114166, Pew Charitable Trusts, el Programa Pew Scholars en Ciencias Biomédicas y Columbia Technology Ventures.
Fuente de la historia :
Materiales proporcionado por El Instituto Zuckerman de la Universidad de Columbia . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :