Los humanos pueden reconocer y reaccionar sin esfuerzo a los sonidos naturales y están especialmente sintonizados con el habla. Se han realizado varios estudios para localizar y comprender las partes específicas del habla del cerebro, pero como las mismas áreas del cerebro están activas principalmente para todos los sonidos,no ha quedado claro si el cerebro tiene o no procesos únicos para el procesamiento del habla y cómo realiza estos procesos. Uno de los principales desafíos ha sido describir cómo el cerebro combina las señales acústicas altamente variables con las representaciones lingüísticas cuando no hay nadie-una correspondencia entre los dos, por ejemplo, cómo el cerebro identifica las mismas palabras pronunciadas por hablantes y dialectos muy diferentes como el mismo.
Para este último estudio, los investigadores, dirigidos por la profesora Riitta Salmelin, decodificaron y reconstruyeron palabras habladas a partir de grabaciones cerebrales a escala de milisegundos en 16 voluntarios finlandeses sanos. Adoptaron el enfoque novedoso de utilizar la variabilidad acústica natural de una gran variedad de sonidospalabras pronunciadas por diferentes hablantes, sonidos ambientales de muchas categorías y mapearlos con datos de magnetoencefalografía MEG utilizando modelos de aprendizaje automático inspirados fisiológicamente. Estos tipos de modelos, con representaciones de los sonidos resueltas y promediadas en el tiempo, tienense usó en investigaciones cerebrales antes. La formulación novedosa y escalable del co-autor principal Ali Faisal permitió aplicar tales modelos a grabaciones de cerebro completo, y este estudio es el primero en comparar los mismos modelos para el habla y otros sonidos.
El investigador y autor principal de Aalto, Anni Nora, dice: "Descubrimos que el bloqueo temporal de la activación cortical a la entrada del habla que se desarrolla es crucial para la codificación del habla. Cuando escuchamos una palabra, por ejemplo" gato ", nuestro cerebro tiene quesígalo con mucha precisión a tiempo para poder entender su significado '.
Como contraste, el bloqueo de tiempo no se destacó en el procesamiento cortical de sonidos ambientales que no son del habla que transmitían los mismos significados que las palabras habladas, como música o risas. En cambio, el análisis promediado en el tiempo es suficiente para alcanzar sus significados.'Esto significa que el cerebro accede a las mismas representaciones cómo se ve un gato, qué hace, cómo se siente, etc. también cuando escucha a un gato maullar, pero el sonido en sí mismo se analiza como un todo, sin necesidad debloqueo temporal similar de la activación cerebral ', explica Nora.
La codificación con bloqueo de tiempo también se observó para palabras nuevas sin sentido. Sin embargo, incluso las respuestas a sonidos no hablados hechos por el hombre, como la risa, no mostraron una decodificación mejorada con el mecanismo dinámico de bloqueo de tiempo y se reconstruyeron mejor usando un tiempo-modelo promediado, lo que sugiere que la codificación con bloqueo de tiempo es especial para sonidos identificados como habla.
Los resultados indican que las respuestas cerebrales siguen al habla con una fidelidad temporal especialmente alta
Los resultados actuales sugieren que, en humanos, un mecanismo de codificación especial con bloqueo de tiempo podría haber evolucionado para el habla. Según otros estudios, este mecanismo de procesamiento parece estar sintonizado con el idioma nativo con una amplia exposición al entorno del lenguaje durante el desarrollo temprano.
El hallazgo actual de codificación con bloqueo de tiempo, especialmente para el habla, profundiza la comprensión de los cálculos necesarios para el mapeo entre representaciones acústicas y lingüísticas de sonidos a palabras. Los hallazgos actuales plantean la cuestión de qué aspectos específicos dentro de los sonidos son crucialespara indicar al cerebro que use este modo especial de codificación. Para investigar esto más a fondo, los investigadores apuntan luego a usar entornos auditivos reales como la superposición de sonidos y habla ambientales. "Los estudios futuros también deberían determinar si un bloqueo de tiempo similar podría serobservado con especialización en el procesamiento de otros sonidos a través de la experiencia, por ejemplo, para sonidos instrumentales en músicos ', dice Nora
El trabajo futuro podría investigar la contribución de diferentes propiedades dentro de la acústica del habla y el posible efecto de una tarea experimental para impulsar el uso del modo de tiempo bloqueado o promediado en el procesamiento de sonido. Estos modelos de aprendizaje automático también podrían ser muy útiles cuando se aplicana grupos clínicos, como la investigación de individuos con procesamiento del habla deteriorado.
Fuente de la historia :
Materiales proporcionado por Universidad de Aalto . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :