Investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT han desarrollado un nuevo modelo computacional de un circuito neuronal en el cerebro, que podría arrojar luz sobre el papel biológico de las neuronas inhibidoras, neuronas que evitan que otras neuronas se disparen.
El modelo describe un circuito neuronal que consiste en una matriz de neuronas de entrada y un número equivalente de neuronas de salida. El circuito realiza lo que los neurocientíficos llaman una operación de "ganador se lleva todo", en la cual las señales de múltiples neuronas de entrada inducen una señal ensolo una neurona de salida.
Utilizando las herramientas de la informática teórica, los investigadores prueban que, dentro del contexto de su modelo, una determinada configuración de neuronas inhibidoras proporciona los medios más eficientes para llevar a cabo una operación ganadora. Porque el modelo hace predicciones empíricas sobreEl comportamiento de las neuronas inhibitorias en el cerebro, ofrece un buen ejemplo de la forma en que el análisis computacional podría ayudar a la neurociencia.
Los investigadores presentarán sus resultados esta semana en la conferencia sobre Innovaciones en Ciencias de la Computación Teórica. Nancy Lynch, profesora de NEC de Ciencia e Ingeniería de Software en el MIT, es la autora principal del artículo. Se le unió Merav Parter, un postdocen su grupo, y Cameron Musco, una estudiante graduada del MIT en ingeniería eléctrica y ciencias de la computación.
Durante años, el grupo de Lynch ha estudiado la comunicación y la asignación de recursos en redes ad hoc, redes cuyos miembros se van y reincorporan continuamente. Pero recientemente, el equipo ha comenzado a usar las herramientas de análisis de redes para investigar fenómenos biológicos.
"Existe una estrecha correspondencia entre el comportamiento de las redes de computadoras u otros dispositivos como los teléfonos móviles y el de los sistemas biológicos", dice Lynch. "Estamos tratando de encontrar problemas que puedan beneficiarse de esta perspectiva de computación distribuida, centrándonos enalgoritmos para los cuales podemos probar propiedades matemáticas "
neurología artificial
En los últimos años, las redes neuronales artificiales modelos de computadora basados aproximadamente en la estructura del cerebro han sido responsables de algunas de las mejoras más rápidas en los sistemas de inteligencia artificial, desde la transcripción del habla hasta el software de reconocimiento facial.
Una red neuronal artificial consiste en "nodos" que, como las neuronas individuales, tienen un poder de procesamiento de información limitado pero están densamente interconectados. Los datos se introducen en la primera capa de nodos. Si los datos recibidos por un nodo dado cumplen algún criterio de umbral- por ejemplo, si excede un valor particular, el nodo "dispara" o envía señales a lo largo de todas sus conexiones salientes.
Sin embargo, cada una de esas conexiones salientes tiene un "peso" asociado que puede aumentar o disminuir una señal. Cada nodo en la siguiente capa de la red recibe señales ponderadas de múltiples nodos en la primera capa; las agrega juntas,y nuevamente, si su suma excede algún umbral, se dispara. Sus señales salientes pasan a la siguiente capa, y así sucesivamente.
En las aplicaciones de inteligencia artificial, una red neuronal se "entrena" en datos de muestra, ajustando constantemente sus pesos y umbrales de disparo hasta que la salida de su capa final representa constantemente la solución a algún problema computacional.
plausibilidad biológica
Lynch, Parter y Musco hicieron varias modificaciones a este diseño para hacerlo más biológicamente plausible. La primera fue la adición de "neuronas" inhibidoras. En una red neuronal artificial estándar, los valores de los pesos en las conexiones suelen ser positivoso capaz de ser positivo o negativo. Pero en el cerebro, algunas neuronas parecen desempeñar un papel puramente inhibitorio, evitando que otras neuronas se disparen. Los investigadores del MIT modelaron esas neuronas como nodos cuyas conexiones solo tienen pesos negativos.
Muchas aplicaciones de inteligencia artificial también usan redes de "avance", en las cuales las señales pasan a través de la red en una sola dirección, desde la primera capa, que recibe los datos de entrada, hasta la última capa, que proporciona el resultado de un cálculoPero las conexiones en el cerebro son mucho más complejas. Por lo tanto, el circuito de Lynch, Parter y Musco incluye retroalimentación: las señales de las neuronas de salida pasan a las neuronas inhibidoras, cuya salida a su vez regresa a las neuronas de salida. La señalización de las neuronas de salidatambién se retroalimenta, lo que demuestra ser esencial para implementar la estrategia del ganador se lleva todo.
Finalmente, la red de investigadores del MIT es probabilística. En una red neuronal artificial típica, si los valores de entrada de un nodo exceden algún umbral, el nodo se dispara. Pero en el cerebro, aumentar la fuerza de la señal que viaja sobre una neurona de entrada solo aumentalas posibilidades de que se dispare una neurona de salida. Lo mismo es cierto para los nodos en el modelo de los investigadores. Nuevamente, esta modificación es crucial para implementar la estrategia del ganador se lleva todo.
En el modelo de los investigadores, el número de neuronas de entrada y salida es fijo, y la ejecución del cómputo del ganador se lleva todo es puramente el trabajo de un banco de neuronas auxiliares ". Estamos tratando de ver el equilibrioentre el tiempo computacional para resolver un problema dado y el número de neuronas auxiliares ", explica Parter." Consideramos que las neuronas son un recurso; no queremos gastar demasiado ".
virtudes de inhibición
Parter y sus colegas pudieron demostrar que con solo una neurona inhibidora, es imposible, en el contexto de su modelo, implementar la estrategia del ganador para llevarse todo. Pero dos neuronas inhibidoras son suficientes. El truco es que una deLas neuronas inhibidoras, que los investigadores llaman neurona de convergencia, envían una señal inhibitoria fuerte si se dispara más de una neurona de salida, mientras que la otra neurona inhibidora, la neurona de estabilidad, envía una señal mucho más débil siempre que las neuronas de salidaestán disparando
La neurona de convergencia impulsa el circuito para seleccionar una sola neurona de salida, en cuyo punto deja de dispararse; la neurona de estabilidad evita que una segunda neurona de salida se active una vez que la neurona de convergencia se ha apagado. Los circuitos de autorretroalimentación de la salidaLas neuronas mejoran este efecto. Cuanto más tiempo se haya apagado una neurona de salida, más probabilidades hay de que permanezca apagada; cuanto más tiempo se haya encendido, más probabilidades hay de que permanezca encendida. Una vez que se ha seleccionado una sola neurona de salida,El circuito de retroalimentación asegura que puede superar la inhibición de la neurona de estabilidad.
Sin aleatoriedad, sin embargo, el circuito no convergerá en una sola neurona de salida: cualquier configuración de los pesos de las neuronas inhibidoras afectará a todas las neuronas de salida por igual. "Se necesita aleatoriedad para romper la simetría", explica Parter.
Los investigadores pudieron determinar la cantidad mínima de neuronas auxiliares necesarias para garantizar una velocidad de convergencia particular y la velocidad de convergencia máxima posible dada una cantidad particular de neuronas auxiliares.
Agregar más neuronas de convergencia aumenta la velocidad de convergencia, pero solo hasta cierto punto. Por ejemplo, con 100 neuronas de entrada, dos o tres neuronas de convergencia son todo lo que necesita; agregar una cuarta no mejora la eficiencia. Y solo una neurona de estabilidadya es óptimo.
Pero quizás de manera más intrigante, los investigadores demostraron que incluir neuronas excitadoras, neuronas que estimulan, en lugar de inhibir, la activación de otras neuronas, así como neuronas inhibidoras entre las neuronas auxiliares no puede mejorar la eficiencia del circuito. Del mismo modo, cualquierLa disposición de las neuronas inhibitorias que no observa la distinción entre las neuronas de convergencia y estabilidad será menos eficiente que una que sí lo haga.
Suponiendo, entonces, que la evolución tiende a encontrar soluciones eficientes a los problemas de ingeniería, el modelo sugiere tanto una respuesta a la pregunta de por qué se encuentran neuronas inhibidoras en el cerebro como una pregunta tentadora para la investigación empírica: ¿Las neuronas inhibidoras reales exhiben lo mismo?división entre neuronas de convergencia y neuronas de estabilidad?
Fuente de la historia :
Materiales proporcionado por Instituto de Tecnología de Massachusetts . Original escrito por Larry Hardesty. Nota: El contenido puede ser editado por estilo y longitud.
Cite esta página :