Los gestos y las expresiones faciales delatan nuestro estado emocional, pero ¿qué pasa con nuestras voces? ¿Cómo la entonación simple nos permite decodificar las emociones, por ejemplo en el teléfono? Al observar la actividad neuronal en el cerebro, investigadores de la Universidad de Ginebra UNIGE, Suiza, han podido mapear las regiones cerebrales que utilizamos para interpretar y categorizar las representaciones emocionales vocales. Los resultados, que se presentan en la revista Informes científicos , subrayar el papel esencial que desempeñan las regiones frontales en la interpretación de las emociones comunicadas oralmente. Cuando el proceso no funciona correctamente, como consecuencia de una lesión cerebral, por ejemplo, un individuo carecerá de la capacidad de interpretar correctamente las emociones e intenciones de otra persona.Los investigadores también notaron la intensa red de conexiones que vincula esta área con la amígdala, el órgano clave para procesar las emociones.
La parte superior del lóbulo temporal en los mamíferos está vinculada a la audición en particular. Un área específica está dedicada a las vocalizaciones de sus congéneres, lo que permite distinguirlos de por ejemplo los ruidos ambientales. Pero la voz es más queun sonido al que somos especialmente sensibles: también es un vector de emociones.
categorizar y discriminar
"Cuando alguien nos habla, utilizamos la información acústica que percibimos en él o ella y la clasificamos en diversas categorías, como ira, miedo o placer", explica Didier Grandjean, profesor de la Facultad de Psicología y Educación de la UNIGE.SCAS y en el Centro Suizo de Ciencias Afectivas CISA. Esta forma de clasificar las emociones se llama categorización, y la usamos entre otras cosas para establecer que una persona está triste o feliz durante una interacción social.
La categorización difiere de la discriminación, que consiste en centrar la atención en un estado en particular: detectar o buscar a alguien feliz en una multitud, por ejemplo. Pero, ¿cómo categoriza el cerebro estas emociones y determina lo que la otra persona está expresando? En un intentoPara responder a esta pregunta, el equipo de Grandjean analizó las regiones cerebrales que se movilizan al construir representaciones emocionales vocales.
Los dieciséis adultos que participaron en el experimento fueron expuestos a una base de datos de vocalización que consta de seis voces de hombres y seis de mujeres, todos diciendo pseudopalabras que no tenían sentido pero pronunciadas con emoción. Los participantes primero tenían que clasificar cada voz en cuanto a siestaba enojado, neutral o feliz para que los investigadores pudieran observar qué área del cerebro se estaba utilizando para la categorización. Luego, los sujetos simplemente tenían que decidir si una voz estaba enojada o feliz o no para que los científicos pudieran mirar el áreasolicitada por discriminación. "La resonancia magnética funcional permitió observar qué áreas se estaban activando en cada caso. Descubrimos que la categorización y la discriminación no utilizaban exactamente la misma región de la corteza frontal inferior", dice Sascha Frühholz, investigadora de UNIGESCAS en el momento del experimento, pero que ahora es profesor en la Universidad de Zúrich.
El papel crucial del lóbulo frontal
A diferencia de la distinción entre voz y ruido de fondo que se encuentra en el lóbulo temporal, las acciones de categorización y discriminación se realizan en el lóbulo frontal, en particular en las circunvoluciones frontales inferiores a los lados de la frente ". Esperábamos el lóbulo frontalparticipar, y había predicho la observación de dos subregiones diferentes que se activarían en función de la acción de categorizar o discriminar ", dice Grandjean. En primera instancia, fue la subregión pars opercularis la que correspondió a la categorizaciónde voces, mientras que en el segundo caso, la discriminación, fue la pars triangularis ". Esta distinción está vinculada no solo a las activaciones cerebrales selectivas de los procesos estudiados, sino que también se debe a la diferencia en las conexiones con otras regiones cerebrales que las requieren"Dos operaciones", continúa Grandjean. "Cuando categorizamos, tenemos que ser más precisos que cuando discriminamos. Por eso la región temporal, la amígdala y la c orbito-frontalortex, áreas cruciales para la emoción, se utilizan en un grado mucho mayor y están funcionalmente conectadas a la pars opercularis en lugar de a la pars triangularis. "
La investigación, que enfatiza la diferencia entre sub-territorios funcionales en la percepción de emociones a través de la comunicación vocal, muestra que cuanto más complejos y precisos son los procesos relacionados con las emociones, más se solicita el lóbulo frontal y sus conexiones con otras regiones cerebrales.Existe una diferencia entre procesar la información sonora básica una distinción entre el ruido circundante y las voces realizada por la parte superior del lóbulo temporal y el procesamiento de información de alto nivel emociones percibidas y significados contextuales realizada por el lóbulo frontal.último que permite la interacción social al decodificar la intención del hablante. "Sin esta área, no es posible representar las emociones de la otra persona a través de su voz, y ya no entendemos sus expectativas y tenemos dificultades para integrar el contextoinformación, como en el sarcasmo ", concluye Grandjean. Ahora sabemos por qué un individuo con una lesión cerebral que afecta el frente inferioral gyrus y las regiones orbito-frontales ya no pueden interpretar las emociones relacionadas con lo que dicen sus compañeros y, como resultado, pueden adoptar un comportamiento socialmente inapropiado ".
Fuente de la historia :
Materiales proporcionados por Universidad de Genève . Nota: el contenido se puede editar por estilo y longitud.
Referencia de la revista :
cite esta página :