El cerebro humano humano promedio pesa alrededor de tres libras y está compuesto principalmente de grasa y agua, pero es extremadamente eficiente en el procesamiento de información. Para simular solo un segundo de actividad cerebral biológica hace varios años, los investigadores utilizaron 82,994 procesadores, un petabyte dememoria del sistema y 40 minutos en la supercomputadora K del Instituto de Investigación Riken. En ese momento, este sistema consumía suficiente electricidad para alimentar alrededor de 10,000 hogares. Por el contrario, el cerebro usa el equivalente de aproximadamente 20 vatios de electricidad, apenas lo suficiente para alimentar una luz tenuebombilla.
Nuestros cerebros también son mucho mejores que las computadoras en tareas como reconocer imágenes y navegar en espacios desconocidos. Aunque todavía se desconoce el mecanismo preciso por el cual nuestro cerebro realiza estas tareas, sabemos que la información visual se procesa de manera masivamente paralela y concertadapor millones de neuronas conectadas por sinapsis. Cada neurona responde a estímulos visuales de una manera simple, a pedido, pero sus respuestas colectivas pueden producir resultados cognitivos que actualmente no pueden ser fácilmente descritos por un modelo matemático simple. Estos modelos son esencialmente la base desoftware actual de procesamiento de imágenes ejecutado en sistemas informáticos tradicionales. Todos los sistemas informáticos desde la década de 1940, desde teléfonos inteligentes hasta supercomputadoras, se han construido a partir del mismo modelo, llamado arquitectura von Neumann, que se basa en modelos matemáticos para ejecutar secuencias lineales de instrucciones.
El diseño de von Neumann también ha llevado a la informática a sus límites actuales en eficiencia y enfriamiento. A medida que los ingenieros construyeron chips cada vez más complejos para llevar a cabo operaciones secuenciales cada vez más rápido, los chips más rápidos también han estado produciendo más calor residual. Reconociendo que la informática moderna no puedeContinuando con esta trayectoria, varias compañías buscan inspiración en el cerebro y desarrollan chips "neuromórficos" que procesan los datos de la manera en que lo hacen nuestras mentes. Una de esas tecnologías es el Sistema Neurosináptico TrueNorth de IBM.
Aunque la informática neuromórfica aún está en pañales, los investigadores de la División de Investigación Computacional CRD del Laboratorio Nacional Lawrence Berkeley Berkeley Lab del Departamento de Energía de los EE. UU. DOE esperan que estas pequeñas computadoras de bajo poder inspiradas en el cerebroalgún día, los sistemas podrían ayudar a aliviar algunos de los desafíos de los grandes datos de la ciencia. Con fondos del programa de Investigación y Desarrollo Dirigido por Laboratorio LDRD, dos grupos de investigadores están explorando cómo la ciencia podría beneficiarse de esta nueva tecnología.
Un grupo de investigadores de CRD está estudiando cómo los chips neuromórficos podrían proporcionar procesamiento de datos en tiempo real y de baja potencia para el seguimiento de partículas cargadas en experimentos de física de alta energía y predicción de movimiento a partir de señales neuronales para las interfaces cerebro-máquina.están trabajando para implementar filtros Kalman en chips TrueNorth, expandiendo efectivamente la utilización de esta tecnología neuromórfica a cualquier problema informático que se beneficie de un seguimiento o control continuo en tiempo real.
Mientras tanto, otra colaboración de investigadores de CRD y la división de Biofísica Molecular y Bioimagen Integrada MBIB analizó la viabilidad de aplicar redes neuronales convolucionales CNN en TrueNorth de IBM para clasificar imágenes y extraer características de observaciones experimentales generadas en las instalaciones del DOE.En base a sus resultados iniciales, el equipo está trabajando actualmente para identificar problemas en las áreas de biología estructural, ciencia de materiales y cosmología que pueden beneficiarse de esta configuración.
"El campo de la computación neuromórfica es muy nuevo, por lo que es difícil decir de manera concluyente si la ciencia se beneficiará de ello. Pero desde la perspectiva de la física de partículas, la idea de una pequeña unidad de procesamiento que sea autónoma e infinitamente replicable es muyemocionante ", dice Paolo Calafiura, gerente de software e informática para el experimento ATLAS del Gran Colisionador de Hadrones y un científico de CRD.
Agrega: "Por una razón u otra, ya sea E / S entrada / salida, CPU unidad de procesamiento de computadora o memoria, todas las plataformas informáticas que hemos encontrado hasta ahora no han sido capacesescalar para satisfacer nuestras necesidades de procesamiento de datos. Pero si puede replicar la misma pequeña unidad de procesamiento 10 millones de veces o más, como pretende hacer la computación neuromórfica, y encontrar el equilibrio adecuado entre el consumo de energía y la velocidad de procesamiento, parece que lo harásatisfacer nuestras necesidades "
¿Por qué la computación neuromórfica?
En el diseño tradicional de von Neumann, las computadoras se componen principalmente de dos componentes: una CPU que maneja los datos y la memoria de acceso aleatorio RAM que almacena los datos y las instrucciones sobre qué hacer con ella. La CPU obtiene su primera instrucción dememoria, y luego los datos necesarios para ejecutarla. Una vez que se realiza la instrucción, el resultado se envía de vuelta a la memoria y el ciclo se repite.
En lugar de ir y venir entre la CPU y la memoria, el chip TrueNorth es un sistema informático autónomo en el que se ubican las unidades de procesamiento y la memoria. Cada chip contiene 4,096 núcleos neurosinápticos que contienen 1 millón de neuronas programables y 256 millones de sinapsis configurables interconectadasa través de una red en chip. Las neuronas transmiten, reciben y acumulan señales conocidas como picos. Una neurona produce un pico cada vez que las entradas acumuladas alcanzan un umbral de activación programado. Son ponderadas y redirigidas por sinapsis que conectan diferentes capas de neuronas para mapear la entrada asalida.
Los chips TrueNorth se agrupan de forma nativa en dos dimensiones utilizando la red en chip, lo que esencialmente permite que el sistema se adapte sin problemas a cualquier tamaño. Debido a que las sinapsis cumplen una doble función de memoria y CPU, los chips neuromórficos incorporan una gran cantidad de potencia informática en una pequeña huellay usa significativamente menos energía. Por ejemplo, TrueNorth usa alrededor de 70 milivatios de electricidad mientras funciona y tiene una densidad de potencia de 20 milivatios por centímetro cuadrado, casi 1/10 000 de la potencia de la mayoría de los microprocesadores modernos.
"El bajo consumo de energía y el tamaño compacto son algunas de las razones por las que estamos interesados en la informática neuromórfica", dice Chao Yang, un matemático aplicado en el CRD de Berkeley Lab. "Con estos sistemas informáticos en miniatura, esperamos que pronto habilitemosinstrumentos científicos para ser más inteligentes haciendo análisis en tiempo real a medida que los detectores recopilan información "
Según la científica de CRD Daniela Ushizima, incorporar estos chips neuromórficos en los detectores podría significar un gran ahorro computacional para las instalaciones de imágenes. En lugar de enviar datos sin procesar directamente a una instalación de almacenamiento y luego averiguar después de la adquisición si la información recopilada es relevante, de buena calidado incluye el objeto de interés, los investigadores podrían hacer esta exploración in situ a medida que se recopilan los datos
El tamaño de los chips también presenta nuevas posibilidades para dispositivos portátiles y prótesis. "En nuestro trabajo de series de tiempo, estamos explorando el potencial de esta tecnología para las personas que tienen prótesis implantadas en sus cerebros para restaurar el movimiento", dice Kristofer Bouchard, un neurocientífico computacional de Berkeley Lab. "Si bien las supercomputadoras de hoy en día son poderosas, no es realmente factible que alguien tome eso en la vida cotidiana. Pero si tienes esa misma capacidad informática en algo del tamaño de un sello postal, eso abre untoda una nueva gama de oportunidades "
Traducción de métodos científicos: de von Neumann a neuromórfico
Debido a que los chips neuromórficos son muy diferentes a los microprocesadores actuales, el primer paso para ambos proyectos es traducir los métodos científicos desarrollados para las computadoras modernas en un marco para la arquitectura TrueNorth. Aquí hay una visión más detallada de estos dos proyectos.
Interfaz de física de partículas y máquina cerebral
Co-protagonistas: Kristofer Bouchard y Paolo Calafiura
En experimentos de física de partículas, los investigadores aplastan haces de protones en el centro de los detectores y miden la energía y el impulso de las partículas que escapan. Al rastrear la trayectoria del material que escapa con algoritmos llamados filtros de Kalman, los físicos pueden inferir la existencia de partículas masivas que fueroncreado o descompuesto, justo después de la colisión.
Los filtros de Kalman son estimadores esencialmente óptimos. Pueden inferir estructuras de interés, de manera relativamente precisa, a partir de una serie de mediciones tomadas a lo largo del tiempo en entornos difíciles que producen datos con ruido estadístico y otras imprecisiones. Debido a que estos algoritmos son recursivos, pueden realizarse nuevas medicionesprocesados en tiempo real, lo que los hace convenientes para el procesamiento en línea. Además de la física de partículas, los filtros Kalman también se usan ampliamente para la navegación, el procesamiento de señales e incluso para modelar el control del movimiento del sistema nervioso central.
Actualmente, Bouchard y Calafiura están trabajando para establecer su marco científico en la arquitectura TrueNorth. Implementaron filtros Kalman utilizando el lenguaje de programación Corelet de IBM TrueNorth y exploraron las fortalezas y debilidades de los diversos esquemas de transcodificación de TrueNorth que convierten los datos entrantes en picos. Una vezcompletamente probado, este filtro TrueNorth Kalman será ampliamente aplicable a cualquier grupo de investigación interesado en el procesamiento secuencial de datos con la arquitectura TrueNorth.
"Como estos esquemas de transcodificación tienen diferentes puntos fuertes y débiles, será importante explorar cómo el esquema de transcodificación afecta el rendimiento en diferentes áreas de dominio. La capacidad de traducir cualquier flujo de entrada en picos será ampliamente aplicable a cualquier grupo de investigación interesado en experimentarcon la arquitectura TrueNorth ", dice Calafiura.
"Las interfaces cerebro-máquina IMC para restaurar las funciones conductuales perdidas implican registrar las señales cerebrales y transformarlas para una tarea en particular. Los cálculos necesarios para un IMC deben ocurrir en tiempo real, ya que los retrasos pueden causar inestabilidades en el sistema".Bouchard dice: "Hoy en día, la mayoría de los IMC de última generación utiliza alguna variación del filtro de Kalman para transformar las señales cerebrales observadas en una predicción del comportamiento previsto".
Una vez que el equipo haya configurado con éxito su flujo de trabajo en TrueNorth, entrenará a su red neuronal de punta Kalman filtros en grabaciones neuronales reales tomadas directamente de la superficie cortical de pacientes neuroquirúrgicos recogidos por el Dr. Edward Chang en la Universidad de California, San FranciscoConsiste en grabaciones neuronales de 100-256 electrodos con frecuencias de señal de ~ 400 Hz, dentro de las limitaciones de un solo sistema TrueNorth. El equipo también entrenará sus implementaciones con datos físicos de alta energía recopilados en el Gran Colisionador de Hadrones en Ginebra,Suiza y cámaras de procesamiento de tiempo de argón líquido en FermiLab.
Análisis de imagen y reconocimiento de patrones
Co-líderes: Chao Yang, Nick Sauter y Dani Ushizima
Las redes neuronales convolucionales son extremadamente útiles para el reconocimiento y clasificación de imágenes. De hecho, compañías como Google y Facebook están utilizando CNN para identificar y categorizar rostros, ubicaciones, animales, etc., utilizando miles de millones de imágenes cargadas a Internet todos los días.esencialmente ayuda a "entrenar" a estas CNN cada vez que etiquetan una ubicación o un amigo en una imagen. Las CNN aprenden de estas etiquetas, por lo que la próxima vez que alguien intente etiquetar una cara en una imagen cargada, el sistema puede ofrecer sugerencias basadas en lo que ha aprendido.
Debido a que los diseños de CNN evolucionaron desde la investigación inicial de la corteza visual del cerebro y cómo las neuronas propagan la información a través de organizaciones celulares complejas, Yang y sus colegas pensaron que este algoritmo podría ser una buena opción para la computación neuromórfica. Así que exploraron varias arquitecturas de CNN,dirigidos a datos basados en imágenes que requieren una extracción y clasificación de características que requieren mucho tiempo. Dado el amplio interés de Berkeley Lab en las áreas de biología estructural, ciencia de materiales y cosmología, diferentes científicos se unieron para seleccionar problemas adecuados que pueden procesarse eficientemente en TrueNortharquitectura.
Cristalografía de rayos X
En biología y ciencias de los materiales, la cristalografía de rayos X es una técnica popular para determinar la estructura atómica tridimensional de sales, minerales, compuestos orgánicos y proteínas. Cuando los investigadores golpean los átomos o moléculas cristalinos con un haz de rayos X,la luz se dispersa en muchas direcciones. Al medir los ángulos e intensidades de estos haces difractados, los científicos pueden crear una imagen en 3D de la densidad de electrones dentro de los cristales.
Uno de los pasos clave en la cristalografía de rayos X es identificar imágenes con picos claros de Bragg, que son esencialmente puntos brillantes creados cuando las ondas de luz interfieren constructivamente. Los científicos suelen mantener imágenes con picos de Bragg para su posterior procesamiento y descartar aquellos que notienen estas características. Aunque un científico experimentado puede detectar fácilmente estas características, el software actual requiere mucha sintonización manual para identificar estas características. El equipo de Yang propuso utilizar un conjunto de imágenes de difracción previamente recopiladas y etiquetadas para entrenar a una CNN para convertirse en un clasificador de máquinaAdemás de separar las imágenes buenas de las malas, las CNN también se pueden usar para segmentar los puntos de Bragg para su posterior análisis e indexación.
"Nuestros detectores producen imágenes a aproximadamente 133 cuadros por segundo, pero actualmente nuestro software necesita dos segundos de tiempo de CPU para calcular la respuesta. Entonces, uno de nuestros desafíos es analizar nuestros datos rápidamente", dice Nicholas Sauter, un biólogo estructural en BerkeleyDivisión de Biofísica Molecular y Bioimagen Integrada del Laboratorio ". Podemos comprar costosos sistemas de computación paralela para cumplir con las demandas de procesamiento, pero nuestra esperanza es que IBM TrueNorth pueda potencialmente proporcionarnos una forma de ahorrar dinero y energía eléctrica al poner un chip especial en elparte posterior del detector, que tendrá una CNN que puede hacer rápidamente el trabajo que harían esas ocho computadoras costosas ubicadas en un estante "
Microscopía crioelectrónica CryoEM
Para determinar las estructuras 3D de las moléculas sin cristalizarlas primero, los investigadores utilizan un método llamado microscopía crioelectrónica cryoEM, que consiste en congelar una gran cantidad de muestras purificadas y orientadas al azar y fotografiarlas con electrones en lugar de luz.Las vistas proyectadas de partículas aleatoriamente orientadas pero idénticas se ensamblan para generar una estructura 3D de la molécula con resolución casi atómica.
Debido a que las imágenes cryoEM tienden a tener una relación señal / ruido muy baja, lo que significa que es relativamente difícil detectar la característica deseada del fondo, uno de los pasos clave en el proceso de análisis es agrupar imágenes con vistas similaresen la misma clase. El promedio de imágenes dentro de la misma clase aumenta la relación señal-ruido.
Yang y sus compañeros de equipo utilizaron imágenes de proyección simuladas para entrenar a una CNN para clasificar imágenes en diferentes clases de orientación. Para imágenes sin ruido, su clasificador CNN agrupó con éxito imágenes en hasta 84 clases distintas con más del 90 por ciento de éxito. El equipoTambién investigó la posibilidad de reducir la precisión de la CNN al restringir los pesos de entrada y de CNN y descubrió que se puede hacer una predicción confiable cuando la entrada y los pesos están restringidos a 3 o 4 bits. Actualmente están examinando la confiabilidad de este enfoquea imágenes ruidosas.
Incidencia de pastoreo de dispersión de rayos X de ángulo pequeño GISAXS
La dispersión de rayos X de ángulo pequeño de incidencia de pastoreo GISAXS es una técnica de imagen utilizada para estudiar películas delgadas que juegan un papel vital como bloques de construcción para la próxima generación de tecnología de energía renovable. Uno de los desafíos en la imagen GISAXS es inferir con precisiónla estructura cristalina de una muestra a partir de su patrón de difracción bidimensional.
En colaboración con el científico Alex Hexemer de Advanced Light Source ALS, Ushizima usó algoritmos de categorización para etiquetar grandes colecciones de imágenes simuladas por computadora, cada una con una variedad de estructuras cristalinas. Usaron este conjunto de datos para entrenar a una CNN profunda para clasificar estas imágenespor sus estructuras. Cuando probaron el rendimiento de su clasificador en múltiples conjuntos de datos, lograron una precisión de 83 a 92 por ciento dependiendo del número de redes cristalinas de cada caso de prueba. Los resultados preliminares de clasificación usando imágenes reales señalan que los modelos entrenados en simulaciones masivas, incluidos los niveles de ruido de fondo realistas, tienen el potencial de permitir la categorización de datos obtenidos experimentalmente.
"Creemos que estos resultados iniciales son realmente alentadores, y una indicación de que debemos continuar estudiando el uso de CNN para GISAXS y otros experimentos científicos basados en sincrotrón", dice Ushizima.
Cosmología
Para encontrar supernovas de Tipo Ia y otros eventos transitorios en el cielo nocturno, los astrónomos confían en estudios del cielo que generan imágenes de los mismos parches de cielo todas las noches durante meses y años. Los astrónomos combinan y promedian estas imágenes para crear una plantilla de unparche de cielo particular. Cuando llegue una nueva observación, la compararán con la plantilla y restarán los objetos conocidos para descubrir nuevos eventos como supernova. Debido a que las imágenes del cielo nocturno tienen que deformarse para corregir los efectos ópticos o artefactos - causado por sensores de defectos, impactos de rayos cósmicos y objetos en primer plano - las sustracciones no siempre son perfectas. De hecho, el 93 por ciento de los posibles candidatos identificados por la tubería de sustracción son artefactos.
Para separar lo falso de los candidatos reales después de la sustracción, Throsten Kurth, un consultor de HPC en el Centro Nacional de Computación Científica de Investigación de Energía NERSC creó una CNN de dos capas y aplicó un método que incluía 80 por ciento de capacitación, 10 por ciento de validacióny 10 por ciento de pruebas para evaluar el rendimiento de su algoritmo en TrueNorth. Para probar la robustez de su algoritmo, también incluyó imágenes del cielo nocturno en diferentes orientaciones en su conjunto de datos de entrenamiento. Finalmente, lograron aproximadamente un 95 por ciento de precisión de clasificación.
"Aumentar la red con más capas no significa mejorar el rendimiento", dice Ushizima. "El siguiente paso consiste en probar nuestro enfoque en un conjunto de datos diferente, que contiene imágenes con baja relación señal / ruido, imágenes con defectos, comoasí como mapas de píxeles de ruido y defectos. Con este conjunto de datos, la red neuronal puede aprender correlaciones entre todas esas características y, por lo tanto, ofrecer un mejor rendimiento ".
Micro tomografía MicroCT
Micro tomografía MicroCT es un método de imagen que es muy similar a lo que usan los hospitales cuando hacen tomografías computarizadas o tomografías computarizadas en un paciente, pero muestra imágenes a una escala mucho más pequeña. De hecho, permite a los investigadores obtener imágenes de la estructura interna de los objetosa escalas muy finas y de una manera no destructiva. Esto significa que no es necesario realizar ninguna preparación de la muestra, sin manchas, sin cortes finos, y un solo escaneo puede capturar la estructura interna completa de la muestra en 3D y en alta resolución.
Usando microCT, los científicos pueden probar la robustez de los materiales que algún día pueden usarse en baterías, automóviles, aviones, etc. buscando deformaciones microscópicas en su estructura interna. Pero a veces encontrar estas fisuras puede ser muy parecido a buscar unaguja en un pajar. Entonces Ushizima y Yang se asociaron con Dula Parkinson de ALS para desarrollar algoritmos para extraer estas características de imágenes de microCT sin procesar.
"Los algoritmos de visión por computadora nos han permitido construir bancos de datos etiquetados para admitir algoritmos de aprendizaje supervisados, como las CNN. Una herramienta particular que creamos permite al investigador segmentar y etiquetar muestras de imágenes con alta precisión al proporcionar una interfaz de usuario intuitiva y mecanismos paracurar datos ", dice Ushizima.
Aunque estas herramientas se desarrollaron específicamente para extraer características de las imágenes de microCT, ella señala que también es aplicable a otras áreas científicas.
"A medida que aumenta el volumen y la complejidad de los datos científicos, será importante optimizar las CNN y explorar arquitecturas de vanguardia como TrueNorth", dice Yang. "Actualmente, estamos determinando los parámetros de CNN: número de capas, tamaño delos filtros y la frecuencia de muestreo descendente, con estimaciones ad hoc. En nuestro trabajo futuro, nos gustaría examinar enfoques sistemáticos para optimizar estos parámetros ".
Para estos proyectos de LDRD, los investigadores utilizaron principalmente TrueNorth de IBM porque era el primer chip neuromórfico al que tenían acceso. En el futuro esperan explorar la viabilidad de otras arquitecturas de computación neuromórfica.
Fuente de la historia :
Materiales proporcionado por Laboratorio Nacional Lawrence Berkeley . Nota: El contenido puede ser editado por estilo y longitud.
Cite esta página :