En los últimos años, los esfuerzos para comprender el funcionamiento de la mente han adquirido una urgencia recién descubierta. No solo los trastornos psicológicos y neurológicos, desde la enfermedad de Alzheimer y los accidentes cerebrovasculares hasta el autismo y la ansiedad, se están generalizando, nuevas herramientas y métodoshan surgido que permiten a los científicos explorar la estructura y la actividad dentro del cerebro con mayor granularidad.
La Casa Blanca lanzó la Iniciativa BRAIN el 2 de abril de 2013, con el objetivo de apoyar el desarrollo y la aplicación de tecnologías innovadoras que pueden crear una comprensión dinámica de la función cerebral. La iniciativa ha apoyado más de $ 1 mil millones en investigación y ha lideradoa nuevas ideas, nuevos medicamentos y nuevas tecnologías para ayudar a las personas con trastornos cerebrales.
Pero esta riqueza de investigación conlleva desafíos, según Russell Poldrack, profesor de psicología con una inclinación informática en la Universidad de Stanford. La psicología y la neurociencia luchan por construir sobre el conocimiento de sus investigadores dispares.
"La ciencia está destinada a ser acumulativa, pero los problemas metodológicos y conceptuales han impedido el progreso acumulativo en la ciencia psicológica", escribieron Poldrack y colaboradores de Stanford, Dartmouth College y Arizona State University en a Comunicaciones de la naturaleza publicado en mayo de 2019.
ARCHIVISTA DE DATOS
Parte del problema es práctico. Con cientos de grupos de investigación que realizan investigaciones originales, se necesita un repositorio central para alojar y compartir datos, comparar y combinar estudios, y alentar la reutilización de datos. Para abordar este desafío curatorial, en 2010 Poldrack lanzó unplataforma llamada OpenFMRI para compartir estudios de fMRI.
"Durante mucho tiempo pensé que el intercambio de datos era importante por varias razones", explicó Poldrack, "por la transparencia y la reproducibilidad y también para ayudarnos a agregar a través de muchos estudios pequeños para mejorar nuestro poder para responder preguntas"."
OpenFMRI creció a casi un centenar de conjuntos de datos, y en 2016 se incorporó a OpenNeuro, una plataforma más general para albergar estudios de imágenes cerebrales. Esa plataforma cuenta hoy con más de 220 conjuntos de datos, incluidos algunos como "The Stockholm Sleepy Brain Study" y "NeuralProcesamiento de estímulos emocionales musicales y no musicales en la depresión, "que se han descargado cientos de veces".
Los conjuntos de datos de imágenes cerebrales son relativamente grandes y requieren un gran depósito para albergarlos. Cuando estaba desarrollando OpenFMRI, Poldrack recurrió al Centro de Computación Avanzada de Texas TACC en la Universidad de Texas en Austin para alojar y servir los datos.
Una subvención de la Fundación Arnold le permitió alojar OpenNeuro en Amazon Web Services durante algunos años, pero recientemente Poldrack recurrió nuevamente a TACC y a otros sistemas que forman parte del Extreme Discovery Environment XSEDE financiado por NSFpara servir como la infraestructura cibernética para la base de datos.
Parte del éxito del proyecto se debe al desarrollo de un estándar común, BIDS, Brain Imaging Data Structure BIDS, que permite a los investigadores comparar y combinar estudios de una manzana a otra.Poldrack y otros en 2016 obtuvieron una aceptación casi inmediata y se han convertido en la lengua franca para los datos de neuroimagen.
Como parte de la creación del estándar, Poldrack y sus colaboradores crearon un validador basado en la web para que sea fácil determinar si los datos de uno cumplen con el estándar.
"Los investigadores convierten sus datos en formato BIDS, cargan sus datos y se validan en la carga", dijo Poldrack. "Una vez que pasa el validador y se carga, con un clic de un botón se puede compartir".
El intercambio de datos por sí solo no es el objetivo final de estos esfuerzos. En última instancia, a Poldrack le gustaría desarrollar tuberías para la computación que puedan analizar rápidamente conjuntos de datos de imágenes cerebrales de varias maneras. Está trabajando con el proyecto CBrain, con sede en la Universidad McGill enMontreal, Canadá, para crear flujos de trabajo en contenedores que los investigadores pueden usar para realizar estos análisis sin requerir una gran cantidad de conocimientos avanzados en informática e independientemente del sistema que estén utilizando.
También está trabajando con otro proyecto llamado BrainLife.io con sede en la Universidad de Indiana, que utiliza recursos XSEDE, incluidos los de TACC, para procesar datos, incluidos los datos de OpenNeuro.
Muchos de los conjuntos de datos de OpenNeuro ahora están disponibles en BrainLife, y hay un botón en esos conjuntos de datos que lleva uno directamente a la página relevante en BrainLife, donde pueden procesarse y analizarse usando una variedad de aplicaciones desarrolladas por científicos.
"Además de compartir datos, una de las cosas que nos brinda este estándar de datos común es la capacidad de analizar automáticamente los datos y realizar el tipo de preprocesamiento y control de calidad que solemos hacer con los datos de imágenes", explicó"Simplemente apuntas el contenedor al conjunto de datos y simplemente lo ejecuta"
RETHINK DISPOSICIONES DE TODA LA DISCIPLINA
Las cosas serían simples si el formato, el almacenamiento y el uso compartido fueran los únicos problemas que enfrenta el campo. Pero, ¿qué pasaría si los métodos comunes que los investigadores utilizan para analizar los estudios introducen sesgos y errores, lo que lleva a una falta de reproducibilidad? Además, ¿qué pasa si¿Las suposiciones sobre el funcionamiento de la mente eran fundamentalmente defectuosas?
Un estudio publicado en 2018 en Nature Human Behavior que buscaba replicar 21 artículos de ciencias sociales y conductuales de Nature and Science descubrió que solo 13 podían replicarse con éxito. Otro metaestudio bajo los auspicios del Centro de Ciencia Abierta, rerealizó 28 estudios clásicos y contemporáneos en psicología y descubrió que 14 fallaron en replicarse. Esto ha llevado a sospechas retroactivas acerca de décadas de resultados.
Poldrack y sus colaboradores abordaron los problemas metodológicos y de suposición en su reciente Comunicaciones de la naturaleza papel mediante la aplicación de métodos estadísticos más rigurosos para tratar de descubrir las estructuras subyacentes de la mente, un proceso que llaman 'descubrimiento de ontología basada en datos'.
Aplicando el enfoque a los estudios de autorregulación, los investigadores probaron la capacidad de los cuestionarios de encuestas y estudios basados en tareas para predecir la probabilidad de un individuo de estar en riesgo de alcoholismo, obesidad, abuso de drogas u otros problemas relacionados con la autorregulación.
En su estudio, 522 participantes tomaron 23 estudios de autoinforme y realizaron 37 tareas de comportamiento. De cada una de estas 60 medidas, el equipo obtuvo múltiples variables dependientes pensadas para capturar construcciones psicológicas. Utilizando las variables dependientes, el equipo primero intentó crear"un espacio psicológico": una forma de cuantificar la distancia entre las variables dependientes para determinar cómo diversos tipos de comportamiento que a menudo se ven como un grupo separado o se correlacionan entre sí. Utilizaron estas "huellas digitales ontológicas" para determinar la contribución de varios psicológicosconstrucciones para el modelo predictivo final.
El enfoque estadístico utilizado en el estudio, y habilitado por las supercomputadoras en TACC, va mucho más allá de los métodos estándar utilizados en estudios psicológicos típicos.
"Estamos aplicando métodos serios de aprendizaje automático para determinar qué está correlacionado con qué y qué tiene una precisión predictiva generalizable, utilizando métodos que todavía son bastante nuevos en esta área de investigación", dijo Poldrack.
Descubrieron que algunos objetivos predichos, como la salud mental y la obesidad, tenían huellas digitales ontológicas simples, como "control emocional" y "alimentación problemática", pero que otras huellas digitales eran más complicadas. También encontraron que los estudios basados en tareas:común en la investigación psicológica: casi no tenía capacidad predictiva.
"Siempre estoy receloso de decir que nuestra investigación será útil para el diagnóstico, pero es casi seguro que será útil para comprender mejor cómo hacer el diagnóstico y las funciones subyacentes que se relacionan con ciertos resultados, como fumar o problemas para beber oobesidad ", dijo Poldrack.
Motivar el esfuerzo es un nuevo examen de la forma en que hablamos sobre las enfermedades mentales.
"Separar estos trastornos en categorías diagnósticas como esquizofrenia, trastorno bipolar o depresión, simplemente no es biológicamente realista", dijo. "Tanto la genética como la neurociencia muestran que esos trastornos se superponen mucho más en términos de su genética y su neurobiología,que las diferencias. Por lo tanto, creo que pueden surgir nuevos paradigmas que podrían ser ayudados por una mejor comprensión del cerebro ".
La informática de alto rendimiento permite a los investigadores aplicar métodos mucho más sofisticados para determinar las distribuciones de conocimiento y descubrir cuán significativos son los resultados.
"Podemos usar técnicas de muestreo para aleatorizar los datos 5,000 veces y volver a ejecutar modelos grandes muchas veces", dijo Poldrack. "Eso no es realmente posible sin supercomputadoras".
Solía ser el caso de que el progreso de la ciencia dependía de la capacidad de crear una molécula o sintetizar una sustancia química. Pero el progreso cada vez mayor en la ciencia depende de la capacidad de hacer la pregunta correcta sobre un gran conjunto de datos, y luegoser capaz de obtener una respuesta a esa pregunta
"Y", dijo Poldrack, "hay muchas preguntas que, sin una informática de alto rendimiento, no es posible obtener una respuesta".
A pesar de las crisis de fe que han golpeado el campo en los últimos años, Poldrack cree que la ciencia psicológica tiene mucho que decir que es muy confiable sobre por qué los humanos hacen lo que hacen, y que la neurociencia nos da formas de entender de dónde viene eso.
"Estamos tratando de entender cosas realmente complejas", dijo. "Hay que darse cuenta de que todo lo que decimos probablemente sea incorrecto, pero la esperanza es que pueda acercarnos un poco más a lo que es correcto".
Fuente de la historia :
Materiales proporcionado por Universidad de Texas en Austin, Centro de Computación Avanzada de Texas . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cite esta página :