publicidad
Noticias científicas
de organizaciones de investigación

'Neuroprótesis' devuelve palabras al hombre con parálisis

La tecnología podría conducir a una comunicación más natural para las personas que han sufrido pérdida del habla

Fecha :
14 de julio de 2021
Fuente :
Universidad de California San Francisco
Resumen :
Los investigadores han desarrollado con éxito una 'neuroprótesis del habla' que ha permitido a un hombre con parálisis severa comunicarse en oraciones, traduciendo señales de su cerebro al tracto vocal directamente en palabras que aparecen como texto en una pantalla.
Compartir :
HISTORIA COMPLETA

Palabra 'hola' en la pantalla imagen de archivo.
Crédito: © Pavel Ignatov / stock.adobe.com

Investigadores de UC San Francisco han desarrollado con éxito una "neuroprótesis del habla" que ha permitido a un hombre con parálisis severa comunicarse en oraciones, traduciendo señales de su cerebro al tracto vocal directamente en palabras que aparecen como texto en una pantalla.

El logro, que se desarrolló en colaboración con el primer participante de un ensayo de investigación clínica, se basa en más de una década de esfuerzos del neurocirujano de UCSF Edward Chang, MD, para desarrollar una tecnología que permite a las personas con parálisis comunicarse incluso sino pueden hablar por sí mismos. El estudio aparece el 15 de julio en Revista de Medicina de Nueva Inglaterra .

"Hasta donde sabemos, esta es la primera demostración exitosa de decodificación directa de palabras completas de la actividad cerebral de alguien que está paralizado y no puede hablar", dijo Chang, la presidenta de Cirugía Neurológica de Joan y Sanford Weill en UCSF, Jeanne RobertsonDistinguido profesor y autor principal del estudio. "Muestra una gran promesa de restaurar la comunicación al aprovechar la maquinaria natural del habla del cerebro".

Cada año, miles de personas pierden la capacidad de hablar debido a un derrame cerebral, un accidente o una enfermedad. Con un mayor desarrollo, el enfoque descrito en este estudio podría algún día permitir que estas personas se comuniquen por completo.

Traducir las señales cerebrales al habla

Anteriormente, el trabajo en el campo de la neuroprótesis de la comunicación se ha centrado en restaurar la comunicación a través de enfoques basados ​​en la ortografía para escribir letras una por una en el texto. El estudio de Chang difiere de estos esfuerzos de una manera crítica: su equipo está traduciendo las señales previstaspara controlar los músculos del sistema vocal para hablar palabras, en lugar de señales para mover el brazo o la mano para permitir la escritura. Chang dijo que este enfoque aprovecha los aspectos naturales y fluidos del habla y promete una comunicación más rápida y orgánica.

"Con el habla, normalmente comunicamos información a una velocidad muy alta, hasta 150 o 200 palabras por minuto", dijo, y señaló que los enfoques basados ​​en la ortografía que utilizan mecanografía, escritura y control de un cursor son considerablemente más lentos y laboriosos.. "Ir directo a las palabras, como lo estamos haciendo aquí, tiene grandes ventajas porque está más cerca de cómo hablamos normalmente".

Durante la última década, el progreso de Chang hacia este objetivo fue facilitado por los pacientes del Centro de Epilepsia de UCSF que se sometían a neurocirugía para identificar el origen de sus convulsiones utilizando conjuntos de electrodos colocados en la superficie de sus cerebros. Estos pacientes, todos los cuales teníanhabla normal, se ofrecieron como voluntarios para analizar sus grabaciones cerebrales en busca de actividad relacionada con el habla. El éxito inicial con estos pacientes voluntarios allanó el camino para el ensayo actual en personas con parálisis.

Anteriormente, Chang y sus colegas del Instituto Weill de Neurociencias de la UCSF mapearon los patrones de actividad cortical asociados con los movimientos del tracto vocal que producen cada consonante y vocal. Para traducir esos hallazgos en el reconocimiento del habla de palabras completas, David Moses, PhD, ingeniero postdoctoralen el laboratorio de Chang y uno de los autores principales del nuevo estudio, desarrolló nuevos métodos para la decodificación en tiempo real de esos patrones y modelos de lenguaje estadístico para mejorar la precisión.

Pero su éxito en la decodificación del habla en los participantes que podían hablar no garantizaba que la tecnología funcionara en una persona cuyo tracto vocal está paralizado ". Nuestros modelos necesitaban aprender el mapeo entre patrones complejos de actividad cerebral y el habla intencionada,", dijo Moses." Eso plantea un gran desafío cuando el participante no puede hablar ".

Además, el equipo no sabía si las señales cerebrales que controlan el tracto vocal seguirían intactas para las personas que no han podido mover sus músculos vocales durante muchos años ". La mejor manera de averiguar si esto podría funcionarera intentarlo ", dijo Moisés.

Las primeras 50 palabras

Para investigar el potencial de esta tecnología en pacientes con parálisis, Chang se asoció con su colega Karunesh Ganguly, MD, PhD, profesor asociado de neurología, para lanzar un estudio conocido como "BRAVO" Restauración de interfaz cerebro-computadora de brazo y voz. El primer participante en el ensayo es un hombre de unos 30 años que sufrió un derrame cerebral devastador hace más de 15 años que dañó gravemente la conexión entre su cerebro y su tracto vocal y extremidades. Desde su lesión, ha tenido unmovimientos de la cabeza, el cuello y las extremidades, y se comunica mediante el uso de un puntero adjunto a una gorra de béisbol para marcar letras en una pantalla.

El participante, que pidió ser referido como BRAVO1, trabajó con los investigadores para crear un vocabulario de 50 palabras que el equipo de Chang pudo reconocer a partir de la actividad cerebral utilizando algoritmos informáticos avanzados. El vocabulario, que incluye palabras como "agua,"" familia "y" bueno "- fue suficiente para crear cientos de oraciones que expresan conceptos aplicables a la vida diaria de BRAVO1.

Para el estudio, Chang implantó quirúrgicamente una matriz de electrodos de alta densidad sobre la corteza motora del habla de BRAVO1. Después de la recuperación completa del participante, su equipo registró 22 horas de actividad neuronal en esta región del cerebro durante 48 sesiones y varios meses. En cada sesión,BRAVO1 intentó decir cada una de las 50 palabras del vocabulario muchas veces mientras los electrodos registraban las señales cerebrales de su corteza del habla.

Traducción del discurso intentado en texto

Para traducir los patrones de actividad neuronal registrada en palabras específicas, los otros dos autores principales del estudio, Sean Metzger, MS y Jessie Liu, BS, ambos estudiantes de doctorado en bioingeniería en el Laboratorio Chang utilizaron modelos de redes neuronales personalizados, que sonformas de inteligencia artificial.Cuando el participante intentó hablar, estas redes distinguieron patrones sutiles en la actividad cerebral para detectar intentos de habla e identificar qué palabras estaba tratando de decir.

Para probar su enfoque, el equipo primero le presentó a BRAVO1 oraciones cortas construidas a partir de las 50 palabras del vocabulario y le pidió que intentara decirlas varias veces. A medida que lo intentaba, las palabras fueron decodificadas de su actividad cerebral, una por una,en una pantalla.

Luego, el equipo pasó a hacerle preguntas como "¿Cómo estás hoy?" Y "¿Quieres un poco de agua?" Como antes, el intento de hablar de BRAVO1 apareció en la pantalla. "Estoy muy bien" y "No, No tengo sed."

El equipo descubrió que el sistema podía decodificar palabras a partir de la actividad cerebral a una velocidad de hasta 18 palabras por minuto con una precisión de hasta el 93 por ciento mediana del 75 por ciento. Contribuir al éxito fue un modelo de lenguaje que Moisés aplicó que implementó unfunción de "autocorrección", similar a la que utiliza el software de reconocimiento de voz y mensajes de texto para consumidores.

Moses caracterizó los primeros resultados del ensayo como una prueba de principio. "Nos emocionó ver la decodificación precisa de una variedad de oraciones significativas", dijo. "Hemos demostrado que en realidad es posible facilitar la comunicación de esta maneray que tiene potencial para su uso en entornos de conversación ".

Mirando hacia adelante, Chang y Moses dijeron que ampliarán la prueba para incluir a más participantes afectados por parálisis severa y déficits de comunicación. El equipo está trabajando actualmente para aumentar la cantidad de palabras en el vocabulario disponible, así como para mejorar la velocidad del habla..

Ambos dijeron que si bien el estudio se centró en un solo participante y un vocabulario limitado, esas limitaciones no disminuyen el logro. "Este es un hito tecnológico importante para una persona que no puede comunicarse de forma natural", dijo Moses, "y demuestrael potencial de este enfoque para dar voz a las personas con parálisis severa y pérdida del habla ".

Los coautores del artículo incluyen a Sean L.Metzger, MS; Jessie R. Liu; Gopala K. Anumanchipalli, PhD; Joseph G. Makin, PhD; Pengfei F. Sun, PhD; Josh Chartier, PhD; Maximilian E.Dougherty; Patricia M. Liu, MA; Gary M. Abrams, MD; y Adelyn Tu-Chan, DO, todos de UCSF. Las fuentes de financiamiento incluyeron los Institutos Nacionales de Salud U01 NS098971-01, filantropía y un acuerdo de investigación patrocinado conFacebook Reality Labs FRL, que se completó a principios de 2021.

Los investigadores de UCSF llevaron a cabo todo el diseño, ejecución, análisis de datos e informes de los ensayos clínicos. Los datos de los participantes de la investigación fueron recopilados únicamente por UCSF, se mantienen de forma confidencial y no se comparten con terceros. FRL proporcionó comentarios de alto nivel y consejos de aprendizaje automático.


Fuente de la historia :

Materiales proporcionado por Universidad de California San Francisco . Original escrito por Robin Marks. Nota: el contenido se puede editar por estilo y longitud.


Referencia de la revista :

  1. David A. Moses, Sean L. Metzger, Jessie R. Liu, Gopala K. Anumanchipalli, Joseph G. Makin, Pengfei F. Sun, Josh Chartier, Maximilian E. Dougherty, Patricia M. Liu, Gary M. Abrams,Adelyn Tu-Chan, Karunesh Ganguly, Edward F. Chang. Neuroprótesis para decodificar el habla en una persona paralizada con anartria . Revista de Medicina de Nueva Inglaterra , 2021; 385 3: 217 DOI: 10.1056 / NEJMoa2027540

cite esta página :

Universidad de California en San Francisco. "'Neuroprosthesis' restaura las palabras al hombre con parálisis: la tecnología podría conducir a una comunicación más natural para las personas que han sufrido pérdida del habla". ScienceDaily. ScienceDaily, 14 de julio de 2021. .
Universidad de California en San Francisco. 2021, 14 de julio. 'Neuroprótesis' restaura las palabras al hombre con parálisis: la tecnología podría conducir a una comunicación más natural para las personas que han sufrido pérdida del habla. ScienceDaily . Obtenido el 14 de julio de 2021 de www.science-things.com/releases/2021/07/210714174148.htm
Universidad de California en San Francisco. "'Neuroprosthesis' restaura las palabras al hombre con parálisis: la tecnología podría conducir a una comunicación más natural para las personas que han sufrido pérdida del habla". ScienceDaily. Www.science-things.com/releases/2021/07/210714174148.htm consultado el 14 de julio de 2021.

1

2

3

4

5
HISTORIAS RELACIONADAS