Cuando hablamos, involucramos casi 100 músculos, moviendo continuamente nuestros labios, mandíbula, lengua y garganta para moldear nuestra respiración en las secuencias fluidas de sonidos que forman nuestras palabras y oraciones. Un nuevo estudio realizado por científicos de UC San Francisco revela cómoEstos movimientos articulatorios complejos están coordinados en el cerebro.
La nueva investigación revela que los centros del habla del cerebro están organizados más según las necesidades físicas del tracto vocal, ya que produce el habla, que por cómo suena el habla su "fonética". Los lingüistas dividen el habla en unidades abstractas de sonido llamadas "fonemas "y considere el sonido / k / en" mantener "el mismo que el / k / en" coop ". Pero en realidad, su boca forma el sonido de manera diferente en estas dos palabras para prepararse para las diferentes vocales que siguen, y esteLa distinción física ahora parece ser más importante para las regiones del cerebro responsables de producir el habla que la igualdad teórica del fonema.
Los hallazgos, que amplían estudios previos sobre cómo el cerebro interpreta los sonidos del lenguaje hablado, podrían ayudar a guiar la creación de una nueva generación de dispositivos protésicos para aquellos que no pueden hablar: los implantes cerebrales podrían monitorear la actividad neuronal relacionada con la producción del habla ytraducir rápida y directamente esas señales a un lenguaje hablado sintético.
El nuevo estudio, publicado el 17 de mayo de 2018, en neurona , fue realizada por Josh Chartier y Gopala K. Anumanchipalli, PhD, ambos investigadores en el laboratorio del autor principal Edward Chang, MD, profesor de cirugía neurológica, investigador biomédico Bowes y miembro del Instituto Weill de Neurociencias de la UCSF.acompañado por Keith Johnson, PhD, profesor de lingüística en UC Berkeley.
Un código neuronal para los movimientos del tracto vocal
Chang, neurocirujano del Centro de Epilepsia de UCSF, se especializa en cirugías para extirpar el tejido cerebral que causa convulsiones en pacientes con epilepsia. En algunos casos, para prepararse para estas operaciones, coloca conjuntos de alta densidad de pequeños electrodos en la superficie deel cerebro de los pacientes, tanto para ayudar a identificar la ubicación que desencadena las convulsiones de los pacientes como para trazar un mapa de otras áreas importantes, como las relacionadas con el lenguaje, para asegurarse de que la cirugía evite dañarlos.
Además de su importancia clínica, este método, conocido como electrocorticografía o ECoG, es una herramienta poderosa para la investigación. "Es un medio único de observar miles de neuronas que se activan al unísono", dijo Chartier.
En el nuevo estudio, Chartier y Anumanchipalli pidieron a cinco voluntarios en espera de cirugía, con electrodos de ECoG colocados sobre una región de la corteza sensoriomotora ventral que es un centro clave de la producción del habla, que lean en voz alta una colección de 460 oraciones naturales. Las oraciones fueron expresamenteconstruido para encapsular casi todos los posibles contextos articulatorios en inglés americano. Esta amplitud fue crucial para capturar la gama completa de "coarticulación", la combinación de fonemas que es esencial para el habla natural.
"Sin coarticulación, nuestro habla sería bloqueada y segmentada hasta el punto en que realmente no podríamos entenderla", dijo Chartier.
El equipo de investigación no pudo registrar simultáneamente la actividad neuronal de los voluntarios y sus movimientos de lengua, boca y laringe. En cambio, solo grabaron el audio de los voluntarios hablando y desarrollaron un novedoso algoritmo de aprendizaje profundo para estimar qué movimientos se realizaron durantetareas de habla.
Este enfoque permitió a los investigadores identificar distintas poblaciones de neuronas responsables de los patrones específicos de movimiento del tracto vocal necesarios para producir sonidos del habla fluidos, un nivel de complejidad que no se había visto en experimentos anteriores que usaban tareas de habla más simples sílaba por sílaba.
Los experimentos revelaron que las neuronas que rodean los electrodos individuales codificaban una diversidad notable de movimientos diferentes. Los investigadores encontraron que había cuatro grupos emergentes de neuronas que parecían ser responsables de coordinar los movimientos de los músculos de los labios, la lengua y la garganta en elCuatro configuraciones principales del tracto vocal utilizadas en inglés estadounidense. Los investigadores también identificaron poblaciones neuronales asociadas con clases específicas de fenómenos fonéticos, incluidos grupos separados de consonantes y vocales de diferentes tipos, pero su análisis sugirió que estos grupos fonéticos eran más un subproductode agrupaciones más naturales basadas en diferentes tipos de movimiento muscular.
Con respecto a la coarticulación, los investigadores descubrieron que los centros del habla de nuestro cerebro coordinan diferentes patrones de movimiento muscular según el contexto de lo que se dice y el orden en que ocurren los diferentes sonidos. Por ejemplo, la mandíbula se abre más para decir la palabra "tap"que decir la palabra" tiene "- a pesar de tener el mismo sonido vocal / ae /, la boca tiene que prepararse para cerrarse para hacer el sonido / z / en" tiene ". Los investigadores encontraron que las neuronas en elLa corteza sensoriomotora ventral estaba muy en sintonía con esta y otras características coarticulatorias del inglés, lo que sugiere que las células cerebrales están sintonizadas para producir un habla fluida y dependiente del contexto en lugar de leer segmentos discretos del habla en orden en serie.
"Durante la producción del habla, hay claramente otra capa de procesamiento neuronal que ocurre, que permite al hablante fusionar fonemas en algo que el oyente pueda entender", dijo Anumanchipalli.
Camino a una prótesis de habla
"Este estudio destaca por qué debemos tener en cuenta los movimientos del tracto vocal y no solo las características lingüísticas como los fonemas cuando se estudia la producción del habla", dijo Chartier. Cree que este trabajo allana el camino no solo para estudios adicionales que aborden el aspecto sensoriomotorde la producción del habla, pero también podría pagar dividendos prácticos.
"Ahora sabemos que la corteza sensoriomotora codifica los movimientos del tracto vocal, por lo que podemos usar ese conocimiento para decodificar la actividad cortical y traducirla a través de una prótesis del habla", dijo Chartier. "Esto daría voz a las personas que no pueden hablar perotienen funciones neuronales intactas ".
En última instancia, el estudio podría representar una nueva vía de investigación para el equipo de Chartier y Anumanchipalli en UCSF. "Realmente me hizo pensar dos veces acerca de cómo encajan los fonemas; en cierto sentido, estas unidades de expresión que identificamos gran parte de nuestra investigaciónson sólo subproductos de una señal sensoriomotora ", dijo Anumanchipalli.
Este trabajo fue apoyado por subvenciones de los NIH DP2 OD008627 y U01 NS098971-01. EFC también es un investigador de la New York Stem Cell Foundation-Robertson. Esta investigación también fue apoyada por New York Stem Cell Foundation, Howard HughesMedical Institute, McKnight Foundation, Shurl and Kay Curci Foundation y William K. Bowes Foundation.
Fuente de la historia :
Materiales proporcionado por Universidad de California - San Francisco . Original escrito por Nicholas Weiler. Nota: el contenido se puede editar por estilo y longitud.
Referencia de la revista :
cite esta página :