¿El cerebro es capaz de distinguir una voz de los sonidos específicos que pronuncia? En un intento de responder a esta pregunta, investigadores de la Universidad de Ginebra UNIGE, Suiza, - en colaboración con la Universidad de Maastricht, Países Bajos -- idearon pseudo-palabras palabras sin significado pronunciadas por tres voces con diferentes tonos. Su objetivo: observar cómo el cerebro procesa esta información cuando se enfoca en la voz o en los sonidos del habla es decir, fonemas. Los científicos descubrieron quela corteza auditiva amplifica diferentes aspectos de los sonidos, dependiendo de la tarea que se realiza. La información específica de la voz se prioriza para la diferenciación de la voz, mientras que la información específica del fonema es importante para la diferenciación de los sonidos del habla. Los resultados, que se publican en la revista Comportamiento humano de la naturaleza , arroja luz sobre los mecanismos cerebrales involucrados en el procesamiento del habla.
El habla tiene dos características distintivas: la voz del hablante y el contenido lingüístico en sí, incluidos los sonidos del habla. ¿El cerebro procesa estos dos tipos de información de la misma manera? "Creamos 120 pseudo-palabras que cumplen con la fonología deel idioma francés, pero eso no tiene sentido, para asegurarse de que el procesamiento semántico no interfiera con la percepción pura de los fonemas ", explica Narly Golestani, profesora de la Sección de Psicología de la Facultad de Psicología y Ciencias de la Educación FPSE de UNIGE.-palabras contenidas todos los fonemas como / p /, / t / o / k /, como en / preperibion /, / gabratade / y / ecalimacre /.
El equipo de UNIGE grabó la voz de una fonética femenina que articulaba las pseudo-palabras, que luego convirtieron en voces diferentes, de tono más bajo a más agudo ". Para hacer la diferenciación de las voces tan difícil como la diferenciación de los sonidos del habla, nosotroscreó la percepción de tres voces diferentes a partir de los estímulos grabados, en lugar de grabar a tres personas diferentes ", continúa Sanne Rutten, investigadora de la Sección de Psicología del FPSE de la UNIGE.
Cómo el cerebro distingue diferentes aspectos del habla
Los científicos escanearon a sus participantes usando imágenes de resonancia magnética funcional fMRI en un campo magnético alto 7 Tesla. Este método permite observar la actividad cerebral midiendo la oxigenación de la sangre en el cerebro: cuanto más oxígeno se necesita, más particular esse utiliza el área del cerebro. Mientras se escaneaban, los participantes escuchaban las pseudo-palabras: en una sesión tenían que identificar los fonemas / p /, / t / o / k /, y en otra tenían que decir silas pseudo-palabras habían sido leídas por la voz 1, 2 o 3.
Los equipos de Ginebra y los Países Bajos primero analizaron las pseudo-palabras para comprender mejor los principales parámetros acústicos subyacentes a las diferencias en las voces versus los sonidos del habla. Examinaron las diferencias en frecuencia alta / baja, modulación temporal qué tan rápidolos sonidos cambian con el tiempo y la modulación espectral cómo se distribuye la energía a través de diferentes frecuencias. Descubrieron que las modulaciones espectrales altas diferenciaban mejor las voces y que las modulaciones temporales rápidas junto con las modulaciones espectrales bajas diferenciaban mejor los fonemas.
Posteriormente, los investigadores utilizaron modelos computacionales para analizar las respuestas de fMRI, es decir, la activación cerebral en la corteza auditiva al procesar los sonidos durante las dos tareas. Cuando los participantes tuvieron que concentrarse en las voces, la corteza auditiva amplificó las modulaciones espectrales más altas.Para los fonemas, la corteza respondió más a las rápidas modulaciones temporales y a las bajas modulaciones espectrales. "Los resultados muestran grandes similitudes entre la información de la tarea en los propios sonidos y los datos neuronales, fMRI", dice Golestani.
Este estudio muestra que la corteza auditiva se adapta a un modo de audición específico. Amplifica los aspectos acústicos de los sonidos que son críticos para el objetivo actual. "Esta es la primera vez que se muestra, en humanos y utilizando métodos no invasivosmétodos, que el cerebro se adapta a la tarea en cuestión de manera coherente con la información acústica que se atiende en los sonidos del habla ", señala Rutten. El estudio avanza en nuestra comprensión de los mecanismos subyacentes del procesamiento del sonido del habla y el habla por parte del cerebro"Esto será útil en nuestra investigación futura, especialmente en el procesamiento de otros niveles de lenguaje, incluyendo semántica, sintaxis y prosodia, temas que planeamos explorar en el contexto de un Centro Nacional de Competencia en Investigación sobre el origen y el futuro delenguaje que hemos solicitado en colaboración con investigadores de toda Suiza ", concluye Golestani.
Fuente de la historia :
Materiales proporcionado por Universidad de Ginebra . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :