El habla y la música son dos actividades fundamentalmente humanas que se decodifican en diferentes hemisferios cerebrales. Un nuevo estudio utilizó un enfoque único para revelar por qué existe esta especialización.
Los investigadores del Neuro Montreal Neurological Institute-Hospital de la Universidad McGill crearon 100 grabaciones a capella, cada una de una soprano cantando una oración. Luego distorsionaron las grabaciones a lo largo de dos dimensiones auditivas fundamentales: dinámica espectral y temporal, y tuvieron 49 participantesdistinguir las palabras o las melodías de cada canción. El experimento se realizó en dos grupos de hablantes de inglés y francés para mejorar la reproducibilidad y la generalización.
Descubrieron que para ambos idiomas, cuando la información temporal estaba distorsionada, los participantes tenían problemas para distinguir el contenido del discurso, pero no la melodía. Por el contrario, cuando la información espectral estaba distorsionada, tenían problemas para distinguir la melodía, pero no el discurso.muestra que el habla y la melodía dependen de diferentes características acústicas.
Para probar cómo responde el cerebro a estas diferentes características de sonido, los participantes fueron escaneados con imágenes de resonancia magnética funcional fMRI mientras distinguían los sonidos. Los investigadores descubrieron que el procesamiento del habla se produjo en la corteza auditiva izquierda, mientras que se produjo el procesamiento melódicoen la corteza auditiva derecha.
La música y el habla explotan diferentes extremos del continuo espectro-temporal
Luego, se propusieron probar cómo la degradación en cada dimensión acústica afectaría la actividad cerebral. Descubrieron que la degradación de la dimensión espectral solo afectaba la actividad en la corteza auditiva derecha, y solo durante la percepción de la melodía, mientras que la degradación de la dimensión temporal afectabasolo la corteza auditiva izquierda, y solo durante la percepción del habla. Esto muestra que la respuesta diferencial en cada hemisferio depende del tipo de información acústica en el estímulo.
Estudios previos en animales han encontrado que las neuronas en la corteza auditiva responden a combinaciones particulares de energía espectral y temporal, y están muy sintonizadas con los sonidos que son relevantes para el animal en su entorno natural, como los sonidos de comunicación. Para los humanos, ambosel habla y la música son medios importantes de comunicación. Este estudio muestra que la música y el habla explotan diferentes extremos del continuo espectro-temporal, y que la especialización hemisférica puede ser la forma del sistema nervioso de optimizar el procesamiento de estos dos métodos de comunicación.
Resolviendo el misterio de la especialización hemisférica
"Se sabe desde hace décadas que los dos hemisferios responden al habla y la música de manera diferente, pero la base fisiológica de esta diferencia sigue siendo un misterio", dice Philippe Albouy, primer autor del estudio. "Aquí mostramos que esta especialización hemisférica esvinculado a características acústicas básicas que son relevantes para el habla y la música, vinculando así el hallazgo al conocimiento básico de la organización neuronal ".
Sus resultados fueron publicados en la revista ciencia el 28 de febrero de 2020. Fue financiado por una beca Banting a Albouy y por subvenciones al autor principal Robert Zatorre de los Institutos Canadienses para la Investigación en Salud y del Instituto Canadiense de Investigación Avanzada. Se realizaron grabaciones cappella con la ayudade la Escuela de Música Schulich de la Universidad McGill.
El experimento se demuestra aquí: http://www.zlab.mcgill.ca/spectro_temporal_modulations/
Fuente de la historia :
Materiales proporcionado por Universidad McGill . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :