¿Demasiado ocupado o perezoso para leer Moby Dick de Melville o Anna Karenina de Tolstoy? Está bien. Ya sea que leas los clásicos o los escuches, es probable que se estimulen las mismas partes cognitivas y emocionales del cerebro. Y ahora, hayun mapa para probarlo
Los neurocientíficos de la Universidad de California, Berkeley, han creado mapas interactivos que pueden predecir dónde diferentes categorías de palabras activan el cerebro. Su último mapa se centra en lo que sucede en el cerebro cuando lee historias.
Los hallazgos, que aparecerán el 19 de agosto en el Revista de Neurociencia , proporcione evidencia adicional de que diferentes personas comparten una topografía semántica similar, o significado de palabras, abriendo otra puerta a nuestros pensamientos y narrativas internas. También tienen implicaciones prácticas para el aprendizaje y los trastornos del habla, desde la dislexia hasta la afasia.
"En un momento en que más personas están absorbiendo información a través de audiolibros, podcasts e incluso textos de audio, nuestro estudio muestra que, ya sea que estén escuchando o leyendo los mismos materiales, están procesando información semántica de manera similar", dijo el autor principal del estudioFatma Deniz, investigadora postdoctoral en neurociencia en el Gallant Lab en UC Berkeley y ex becaria en ciencia de datos del Instituto Berkeley de Ciencia de Datos.
Para el estudio, las personas escucharon historias de "The Moth Radio Hour", una popular serie de podcasts, y luego leyeron esas mismas historias. Usando resonancia magnética funcional, los investigadores escanearon sus cerebros en las condiciones de escucha y lectura, compararon su comprensión auditivaversus lectura de datos de actividad cerebral y descubrió que los mapas que crearon a partir de ambos conjuntos de datos eran prácticamente idénticos
Los resultados se pueden ver en un mapa interactivo, en 3D, codificado por colores, donde las palabras, agrupadas en categorías como visual, táctil, numérica, de ubicación, violenta, mental, emocional y social, se presentan como mariposas vibrantes encortezas aplanadas. La corteza es la capa superficial enrollada de materia gris del cerebro que coordina la información sensorial y motora.
El visor interactivo del cerebro en 3D está programado para conectarse en línea este mes.
En cuanto a las aplicaciones clínicas, los mapas podrían usarse para comparar el procesamiento del lenguaje en personas sanas y en aquellos con apoplejía, epilepsia y lesiones cerebrales que deterioran el habla. Comprender esas diferencias puede ayudar a los esfuerzos de recuperación, dijo Deniz.
Los mapas semánticos también pueden informar intervenciones para la dislexia, un trastorno generalizado del procesamiento del lenguaje del neurodesarrollo que dificulta la lectura.
"Si, en el futuro, encontramos que el cerebro disléxico tiene una representación semántica rica en lenguaje cuando escucha un audiolibro u otra grabación, eso podría traer más materiales de audio al aula", dijo Deniz.
Y lo mismo ocurre con los trastornos del procesamiento auditivo, en los que las personas no pueden distinguir los sonidos o "fonemas" que componen las palabras. "Sería muy útil poder comparar los mapas semánticos de escucha y lectura para las personas con trastorno del procesamiento auditivo," ella dijo.
Nueve voluntarios pasaron un par de horas dentro de escáneres de resonancia magnética funcionales, escuchando y luego leyendo historias de "The Moth Radio Hour" mientras los investigadores midieron su flujo sanguíneo cerebral.
Sus datos de actividad cerebral, en ambas condiciones, se compararon con las transcripciones codificadas por tiempo de las historias, cuyos resultados se introdujeron en un programa de computadora que califica las palabras según su relación entre sí.
Utilizando modelos estadísticos, los investigadores organizaron miles de palabras en mapas de acuerdo con sus relaciones semánticas. En la categoría de animales, por ejemplo, uno puede encontrar las palabras "oso", "gato" y "pez".
Los mapas, que cubrían al menos un tercio de la corteza cerebral, permitieron a los investigadores predecir con precisión qué palabras activarían qué partes del cerebro.
Los resultados del experimento de lectura fueron una sorpresa para Deniz, quien había anticipado algunos cambios en la forma en que los lectores versus los oyentes procesarían la información semántica.
"Sabíamos que algunas regiones del cerebro se activaban de manera similar cuando escuchas una palabra y lees la misma palabra, pero no esperaba semejantes similitudes tan fuertes en la representación del significado a través de una gran red de regiones del cerebro en ambas modalidades sensoriales".Dijo Deniz.
Su estudio es una continuación de un estudio de 2016 Gallant Lab que registró la actividad cerebral de siete sujetos de estudio mientras escuchaban historias de "The Moth Radio Hour".
El mapeo futuro de la información semántica incluirá experimentos con personas que hablan otros idiomas además del inglés, así como con personas que tienen trastornos del aprendizaje basados en el lenguaje, dijo Deniz.
Los coautores del estudio son Anwar Nunez-Elizalde, Alexander Huth y Jack Gallant, todos de UC Berkeley.
Fuente de la historia :
Materiales proporcionado por Universidad de California - Berkeley . Original escrito por Yasmin Anwar. Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :