Global Temporal Dynamic APP
La investigación aquí descrita está motivada por la dinámica temporal de los sistemas neuronales vivos y, especialmente, por las capacidades temporales de los humanos y los animales superiores. Nuestros cerebros pueden responder a señales que varían con el tiempo, pueden generar patrones que varían con el tiempo, pueden procesar información (pensar) con el tiempo, pueden representar conceptos e imágenes mentalmente durante intervalos de tiempo arbitrarios, y tienen diferentes estados de actividad continua y autosostenida ( despierto, despierto, durmiendo). Además, parece que tenemos habilidades y dinámicas relacionadas con el tiempo, como el reconocimiento de patrones espaciotemporales a medida que ocurren; coordinación del procesamiento interno en el cerebro, a pesar de no tener un reloj de control aparente; y la presencia de actividad dinámica autosostenida en muchas áreas del cerebro, a través de la oscilación (por ejemplo, las neuronas respiratorias) u otra actividad continua más compleja ("actividad espontánea"). Esta amplia gama de capacidades temporales y actividad variable en el tiempo apunta a una red neuronal temporalmente dinámica que se encuentra en estos procesos. Hasta la fecha, muchos modelos neuronales muestran habilidades de mapeo de patrones, pero carecen de la dinámica y el comportamiento temporal de los sistemas que pretenden modelar.
Hemos explorado una serie de paradigmas relacionados con la actividad dinámica en las redes neuronales. Hemos ilustrado cómo un modelo simple de una red neuronal puede desarrollar atractores dinámicos, actividad autosostenida y caos. El control sobre el parámetro g, un multiplicador de peso, permite la modulación de la dinámica con una progresión desde un simple elemento de atracción de punto fijo a caos. Una vez que generamos patrones de actividad caóticos en una red neuronal, podemos aplicar un patrón de estímulo y bloquear la red en un atractor de ciclo límite. Este escenario plantea una forma potencial de realizar el reconocimiento de patrones y la clasificación de señales. Debido a que los sistemas dinámicos pueden tener límites de cuenca complicados para sus atractores, hay razones para esperar un mayor rendimiento y capacidades de generalización de este tipo de enfoque.
El desarrollo de múltiples atractores en una red neuronal se puede lograr a través de un método de acreción con perturbaciones de peso. En la red resultante, un conjunto de estados iniciales cada uno evoca su propio atractor. Las tareas computacionales en la clasificación de patrones y la memoria asociativa se podrían lograr a través de diferentes estados iniciales que evocan diferentes atractores dinámicos.
En las redes binarias dinámicas, la exploración de las cuencas atractoras y la flexibilidad de las cuencas de atracción mostraron que las capacidades de los atractores eran considerablemente mayores que la cantidad de memorias en la red estática de Hopfield (0.15n). Con tan solo cinco neuronas en una red binaria dinámica, se pueden lograr miles de clases de cuencas (divisiones de patrones en diferentes cuencas).
Para entrenar un atractor específico en una red neuronal, se entrenó una red neuronal con retardos de tiempo para generar una trayectoria de bucle cerrado. La red entrenada genera esta trayectoria a pesar de las condiciones de inicio ruidosas y con segmentos iniciales diferentes. El resultado es un generador robusto de señal y ruta para aplicaciones de comunicaciones y control.
Los trenes de impulso agregan una nueva dimensión de procesamiento espaciotemporal en sistemas neuronales biológicos. Los patrones temporales de los impulsos nerviosos y las sincronizaciones entre conjuntos de neuronas son códigos putativos para el procesamiento y representación de la información. La actividad de disparo de las neuronas y los conjuntos neuronales podría reflejar transitorios y atractores dinámicos superpuestos en la estructura del tren de impulsos del procesamiento biológico neural.
El problema general del reconocimiento y la generación de señales espaciotemporales parece solucionable con redes neuronales dinámicas, aunque queda mucho por hacer. La capacidad para generar y entrenar actividad autosostenida, basada en atractores de oscilación dinámicos, se muestra en los resultados preliminares descritos aquí.