Utilizando electrodos implantados en los lóbulos temporales de pacientes despiertos, los científicos han descifrado las señales cerebrales a casi la velocidad de percepción. Además, el análisis de las respuestas neuronales de los pacientes a dos categorías de estímulos visuales, imágenes de caras y casas, permitiólos científicos predicen posteriormente qué imágenes estaban viendo los pacientes y cuándo, con una precisión superior al 95 por ciento.
La investigación se publica en PLOS Biología Computacional .
El neurocientífico computacional de la Universidad de Washington Rajesh Rao y el neurocirujano de UW Medicine Jeff Ojemann, trabajando con su estudiante Kai Miller y con colegas en el sur de California y Nueva York, realizaron el estudio.
"Estábamos tratando de entender, primero, cómo el cerebro humano percibe los objetos en el lóbulo temporal, y segundo, cómo se podría usar una computadora para extraer y predecir lo que alguien está viendo en tiempo real", explicó Rao.Profesor de ciencias de la computación e ingeniería de la UW, y dirige el Centro de Ingeniería Sensorimotora de la Fundación Nacional de Ciencias, con sede en la UW.
"Clínicamente, podría pensar en nuestro resultado como una prueba de concepto para construir un mecanismo de comunicación para pacientes que están paralizados o han tenido un accidente cerebrovascular y están completamente encerrados", dijo.
El estudio involucró a siete pacientes con epilepsia que recibieron atención en el Centro Médico Harborview en Seattle. Cada uno estaba experimentando ataques epilépticos no aliviados con medicamentos, dijo Ojemann, por lo que cada uno se sometió a una cirugía en la que se implantaron los lóbulos temporales de sus cerebros, temporalmente, durante aproximadamenteuna semana, con electrodos para tratar de localizar los puntos focales de las convulsiones.
"Iban a obtener los electrodos sin importar qué; solo les estábamos dando tareas adicionales para que hicieran durante su estadía en el hospital mientras de otro modo solo estaban esperando", dijo Ojemann.
Los lóbulos temporales procesan la información sensorial y son un sitio común de ataques epilépticos. Ubicados detrás de los ojos y oídos de los mamíferos, los lóbulos también están involucrados en el Alzheimer y las demencias y parecen algo más vulnerables que otras estructuras cerebrales a los traumas de la cabeza, dijo.
En el experimento, los electrodos de múltiples ubicaciones del lóbulo temporal se conectaron a un potente software computacional que extrajo dos propiedades características de la señal cerebral: "potenciales relacionados con eventos" y "cambios espectrales de banda ancha".
Rao caracterizó que el primero probablemente surge de "cientos de miles de neuronas que se activan conjuntamente cuando se presenta una imagen por primera vez", y el segundo como "procesamiento continuo después de la ola inicial de información".
A los sujetos, mirando un monitor de computadora, se les mostró una secuencia aleatoria de imágenes: breves destellos 400 milisegundos de imágenes de rostros humanos y casas, intercalados con pantallas grises en blanco. Su tarea consistía en observar la imagen de un lado positivocasa abajo.
"Obtuvimos diferentes respuestas de diferentes ubicaciones de electrodos; algunos eran sensibles a las caras y otros a las casas", dijo Rao.
El software computacional tomó muestras y digitalizó las señales cerebrales 1,000 veces por segundo para extraer sus características. El software también analizó los datos para determinar qué combinación de ubicaciones de electrodos y tipos de señales se correlacionó mejor con lo que cada sujeto vio realmente.
De esa manera, proporcionó información altamente predictiva.
Al entrenar un algoritmo sobre las respuestas de los sujetos a los primeros dos tercios conocidos de las imágenes, los investigadores podrían examinar las señales cerebrales que representan el tercio final de las imágenes, cuyas etiquetas les eran desconocidas, y predecir con 96precisión porcentual si y cuándo dentro de 20 milisegundos los sujetos estaban viendo una casa, una cara o una pantalla gris.
Esta precisión se logró solo cuando los potenciales relacionados con eventos y los cambios de banda ancha se combinaron para la predicción, lo que sugiere que llevan información complementaria.
"Tradicionalmente, los científicos han examinado neuronas individuales", dijo Rao. "Nuestro estudio ofrece una imagen más global, a nivel de redes muy grandes de neuronas, de cómo una persona que está despierta y prestando atención percibe un objeto visual complejo."
La técnica de los científicos, dijo, es un trampolín para el mapeo cerebral, ya que podría usarse para identificar en tiempo real qué ubicaciones del cerebro son sensibles a los tipos de información.
El autor principal del estudio es Kai Miller, un residente de neurocirugía y físico en la Universidad de Stanford que obtuvo su doctorado y doctorado en la Universidad de Washington. Otros colaboradores fueron Dora Hermes, becaria posdoctoral de Stanford en neurociencia, y Gerwin Schalk, unneurocientífico en el Instituto Wadsworth en Nueva York.
"Las herramientas computacionales que desarrollamos se pueden aplicar a los estudios de la función motora, los estudios de la epilepsia, los estudios de la memoria. Las matemáticas detrás de esto, aplicadas a lo biológico, son fundamentales para el aprendizaje", dijo Ojemann.
Fuente de la historia :
Materiales proporcionados por Universidad de Ciencias de la Salud de Washington / Medicina de la Universidad de Washington . Original escrito por Brian Donohue. Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cite esta página :