Estás caminando por una calle concurrida de la ciudad. A tu alrededor están los sonidos del metro, el tráfico y la música provenientes de los escaparates. De repente, te das cuenta de que uno de los sonidos que estás escuchando es que alguien está hablando, y que estásescuchar de una manera diferente mientras prestas atención a lo que dicen.
¿Cómo hace esto el cerebro? ¿Y qué tan rápido sucede? Los investigadores de la Universidad de Maryland están aprendiendo más sobre el proceso automático que atraviesa el cerebro cuando capta el lenguaje hablado.
Los neurocientíficos han entendido durante algún tiempo que cuando escuchamos sonidos de un lenguaje comprensible, nuestros cerebros reaccionan de manera diferente que cuando escuchamos sonidos que no hablan o personas que hablan en idiomas que no sabemos. Cuando escuchamos a alguien hablar en un idioma familiar,nuestro cerebro se mueve rápidamente para prestar atención, procesar los sonidos del habla convirtiéndolos en palabras y comprender lo que se dice.
En un nuevo artículo publicado en la revista Cell Press / Elsevier Biología actual , "Transformación rápida de representaciones auditivas a representaciones lingüísticas del habla continua", los investigadores de Maryland pudieron ver en qué parte del cerebro y con qué rapidez, en milisegundos, las neuronas del cerebro pasan del procesamiento del sonido del habla al procesamiento del lenguajepalabras basadas en el discurso.
El documento fue escrito por el investigador postdoctoral del Instituto de Investigación de Sistemas ISR Christian Brodbeck, L. Elliot Hong, de la Facultad de Medicina de la Universidad de Maryland, y el profesor Jonathan Z. Simon, quien tiene una cita triple en los Departamentos de Biología yIngeniería eléctrica e informática, así como ISR.
"Cuando escuchamos a alguien hablando, el cambio en el procesamiento de nuestro cerebro de no importarle qué tipo de sonido es reconocerlo como una palabra sucede sorprendentemente temprano", dijo Simon. "De hecho, esto sucede casi tan pronto comola información lingüística se vuelve disponible "
Cuando se involucra en la percepción del habla, la corteza auditiva del cerebro analiza patrones acústicos complejos para detectar palabras que llevan un mensaje lingüístico. Parece hacerlo de manera tan eficiente, al menos en parte, anticipando lo que es probable que escuche:Al aprender qué sonidos suenan con mayor frecuencia, el cerebro puede predecir lo que vendrá después. En general, se cree que este proceso, localizado bilateralmente en los lóbulos temporales superiores del cerebro, implica reconocer un nivel de sonido fonético intermedio.
En el estudio de Maryland, los investigadores mapearon y analizaron la actividad cerebral neuronal de los participantes mientras escuchaban a un solo conversador contar una historia. Usaron la magnetoencefalografía MEG, un método común de neuroimagen no invasivo que emplea magnetómetros muy sensibles para registrar el naturalcampos magnéticos producidos por corrientes eléctricas dentro del cerebro. El sujeto generalmente se sienta debajo o se acuesta dentro del escáner MEG, que se parece a un secador de pelo de toda la cabeza, pero contiene una serie de sensores magnéticos.
El estudio mostró que el cerebro reconoce rápidamente los sonidos fonéticos que forman las sílabas y las transiciones del procesamiento de información meramente acústica a lingüística de una manera altamente especializada y automatizada. El cerebro tiene que mantenerse al día con las personas que hablan a un ritmo de aproximadamente tres palabrasun segundo. Lo logra, en parte, al distinguir el habla de otros tipos de sonido en aproximadamente una décima de segundo después de que el sonido ingresa a los oídos.
"Por lo general, pensamos que lo que el cerebro procesa tan temprano debe ser solo al nivel del sonido, sin tener en cuenta el lenguaje", señala Simon. "Pero si el cerebro puede tener en cuenta el conocimiento del lenguaje de inmediato, en realidad se procesaríasuena con mayor precisión. En nuestro estudio vemos que el cerebro aprovecha el procesamiento del lenguaje en la etapa más temprana posible "
En otra parte del estudio, los investigadores encontraron que las personas procesan selectivamente los sonidos del habla en entornos ruidosos.
Aquí, los participantes escucharon una mezcla de dos oradores en un escenario de "cóctel", y se les dijo que escucharan a uno e ignoraran al otro. Los cerebros de los participantes solo procesaron constantemente el lenguaje para la conversación a la que se les pidió que prestaran atención, no el que se les dijo que ignoraran. Sus cerebros dejaron de procesar el habla desatendida al nivel de detectar formas de palabras.
"Esto puede revelar un 'cuello de botella' en la percepción del habla de nuestros cerebros", dice Brodbeck. "Creemos que la percepción léxica funciona por nuestro cerebro considerando la coincidencia entre la señal del habla entrante y muchas palabras diferentes al mismo tiempo. Podría serque este mecanismo involucra recursos mentales que tienen limitaciones sobre cuántas opciones diferentes se pueden probar simultáneamente, lo que hace imposible atender a más de un orador al mismo tiempo ".
Este estudio sienta las bases para una investigación adicional sobre cómo nuestros cerebros interpretan los sonidos como palabras. Por ejemplo, ¿cómo y cuándo decide el cerebro qué palabra se está diciendo? Hay evidencia de que el cerebro realmente analiza las posibilidades, pero actualmenteSe desconoce cómo el cerebro reduce con éxito las opciones a una sola palabra y la conecta con el significado del discurso en curso. Además, dado que es posible medir qué fracción de los sonidos del habla son lo suficientemente claros como para ser procesados como componentes de las palabras,los investigadores pueden evaluar la comprensión auditiva cuando los sujetos no pueden o no entienden cómo informarlo correctamente.
Fuente de la historia :
Materiales proporcionados por Universidad de Maryland . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :