Uno de los acertijos perdurables de la pérdida auditiva es la disminución de la capacidad de una persona para determinar dónde se origina un sonido, una facultad clave de supervivencia que permite a los animales, desde lagartos hasta humanos, identificar la ubicación del peligro, la presa y los miembros del grupoEn los tiempos modernos, encontrar un teléfono celular perdido usando la aplicación "Buscar mi dispositivo", solo para descubrir que se había deslizado debajo de una almohada del sofá, se basa en pequeñas diferencias en el sonido de llamada que llega a los oídos.
A diferencia de otras percepciones sensoriales, como la sensación de que las gotas de lluvia golpean la piel o la capacidad de distinguir las notas altas de las bajas en el piano, se debe calcular la dirección de los sonidos; el cerebro los calcula procesando la diferencia en el tiempo de llegada entre los dosoídos, la llamada diferencia de tiempo interaural ITD. Un consenso de larga data entre los ingenieros biomédicos es que los humanos localizan los sonidos con un esquema similar a un mapa espacial o brújula, con neuronas alineadas de izquierda a derecha que se disparan individualmente cuando se activan por un sonidoviniendo desde un ángulo dado, digamos, a 30 grados hacia la izquierda desde el centro de la cabeza.
Pero en una investigación publicada este mes en la revista eLife , Antje Ihlefeld, director del Laboratorio de Ingeniería Neural para el Habla y la Audición de NJIT, propone un modelo diferente basado en un código neuronal más dinámico. El descubrimiento ofrece una nueva esperanza, dice, de que los ingenieros algún día puedan diseñar audífonos, ahora notoriamentepobre en restaurar la dirección del sonido, para corregir este déficit.
"Si hay un mapa estático en el cerebro que se degrada y no se puede arreglar, eso presenta un obstáculo desalentador. Significa que las personas probablemente no puedan" volver a aprender "para localizar bien los sonidos. Pero si esta capacidad perceptiva se basa enun código neuronal dinámico, nos da más esperanza de volver a entrenar los cerebros de las personas ", señala Ihlefeld." Programaríamos audífonos e implantes cocleares no solo para compensar la pérdida auditiva de un individuo, sino también en función de qué tan bien esa persona podría adaptarse ausando señales de sus dispositivos. Esto es particularmente importante para situaciones con sonido de fondo, donde ningún dispositivo de audición puede restaurar la capacidad de seleccionar el sonido objetivo. Sabemos que proporcionar señales para restaurar la dirección del sonido realmente ayudaría ".
Lo que la llevó a esta conclusión es un viaje de trabajo de detectives académicos que comenzó con una conversación con Robert Shapley, un eminente neurofisiólogo de la Universidad de Nueva York que comentó sobre una peculiaridad de la percepción de la profundidad binocular humana: la capacidad de determinar qué tan lejos está un visualEl objeto es que eso también depende de un cálculo que compara la información recibida por ambos ojos. Shapley señaló que estas estimaciones de distancia son sistemáticamente menos precisas para estímulos de bajo contraste imágenes que son más difíciles de distinguir de su entorno que para las de alto contraste..
Ihlefeld y Shapley se preguntaron si el mismo principio neural se aplicaba a la localización del sonido: si es menos preciso para los sonidos más suaves que para los más fuertes. Pero esto se apartaría de la teoría del mapa espacial predominante, conocida como el modelo Jeffress, que contiene esos sonidosde todos los volúmenes se procesan, y por lo tanto se perciben, de la misma manera. Los fisiólogos, que proponen que los mamíferos se basen en un modelo neural más dinámico, siempre han estado en desacuerdo con él. Sostienen que las neuronas de mamíferos tienden a dispararse a diferentes velocidades dependiendo de la direcciónseñales y que el cerebro luego compara estas tasas a través de conjuntos de neuronas para construir dinámicamente un mapa del entorno de sonido.
"El desafío para probar o refutar estas teorías es que no podemos mirar directamente el código neural para estas percepciones porque las neuronas relevantes están ubicadas en el tronco encefálico humano, por lo que no podemos obtener imágenes de alta resolución de ellas".dice: "Pero teníamos el presentimiento de que los dos modelos darían predicciones de ubicación de sonido diferentes a un volumen muy bajo".
Buscaron evidencia en la literatura y encontraron solo dos documentos que habían grabado del tejido neural con estos sonidos bajos. Un estudio fue en lechuzas, una especie que se cree que depende del modelo Jeffress, basado en grabaciones de alta resolución en eltejido cerebral de las aves, y el otro estudio fue en un mamífero, el macaco rhesus, un animal que se cree que usa la codificación de velocidad dinámica. Luego reconstruyeron cuidadosamente las propiedades de activación de las neuronas registradas en estos estudios antiguos y usaron sus reconstrucciones para estimar el sonidodirección tanto en función de ITD como de volumen.
"Esperábamos que para los datos de la lechuza, realmente no debería importar lo fuerte que sea una fuente, la dirección del sonido pronosticada debería ser realmente precisa sin importar el volumen del sonido, y pudimos confirmar eso. Sin embargo, quédescubrimos que los datos de los monos indican que la dirección del sonido prevista dependía tanto de la ITD como del volumen ", dijo." Luego buscamos en la literatura humana estudios sobre la dirección del sonido percibida en función de la ITD, que también se pensó que no dependía del volumen, pero sorprendentemente no encontró evidencia para respaldar esta creencia de larga data "
Ella y su estudiante de posgrado, Nima Alamatsaz, luego reclutaron voluntarios en el campus de NJIT para probar su hipótesis, usando sonidos para probar cómo afecta el volumen donde la gente piensa que surge un sonido.
"Construimos una sala extremadamente silenciosa y blindada con equipos calibrados especializados que nos permitieron presentar sonidos con alta precisión a nuestros voluntarios y grabar dónde percibieron que se originaba el sonido. Y efectivamente, la gente identificó erróneamente los sonidos más suaves".toma nota de Alamatsaz.
"Hasta la fecha, no podemos describir con precisión los cálculos de localización de sonido en el cerebro", agrega Ihlefeld. "Sin embargo, los resultados actuales son inconsistentes con la noción de que el cerebro humano se basa en un cálculo similar a Jeffress. En cambio, parecemosconfiar en un mecanismo un poco menos preciso.
En términos más generales, dicen los investigadores, sus estudios apuntan a paralelos directos en la percepción auditiva y visual que se han pasado por alto hasta ahora y que sugieren que la codificación basada en frecuencia es una operación básica subyacente al calcular dimensiones espaciales a partir de dos entradas sensoriales.
"Debido a que nuestro trabajo descubre principios unificadores a través de los dos sentidos, anticipamos que las audiencias interesadas incluirán científicos cognitivos, fisiólogos y expertos en modelado computacional tanto en audición como en visión", dice Ihlefeld. "Es fascinante comparar cómo el cerebro usa el cerebro".información que llega a nuestros ojos y oídos para dar sentido al mundo que nos rodea y descubrir que dos percepciones aparentemente desconectadas, la visión y el oído, pueden ser bastante similares después de todo ".
Fuente de la historia :
Materiales proporcionado por Instituto de Tecnología de Nueva Jersey . Original escrito por Tracey Regan. Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :