19 votos

¿Cuál es una explicación intuitiva de las Redes de Estado de Eco?

Soy nuevo en Redes Neuronales Recurrentes (RNN) y todavía estoy aprendiendo los conceptos. Entiendo a nivel abstracto que una Red de Estado de Eco (ESN) es capaz de (re)producir una secuencia de entradas, es decir, una señal, incluso después de que la entrada haya sido eliminada. Sin embargo, encontré el artículo de Scholarpedia demasiado difícil de entender y asimilar completamente.

¿Alguien me puede explicar cómo funciona el aprendizaje matemáticamente en la forma más simple posible?

21voto

aconkey Puntos 154

Una Red de Estado de Eco es una instancia del concepto más general de Computación en Reservorio. La idea básica detrás del ESN es obtener los beneficios de una RNN (procesar una secuencia de entradas que son dependientes entre sí, es decir, dependencias temporales como una señal) pero sin los problemas de entrenar una RNN tradicional como el problema del gradiente desvaneciente.

Los ESNs logran esto al tener un reservorio relativamente grande de neuronas escasamente conectadas que utilizan una función de transferencia sigmoidea (en relación al tamaño de la entrada, algo así como 100-1000 unidades). Las conexiones en el reservorio se asignan una vez y son completamente aleatorias; los pesos del reservorio no se entrenan. Las neuronas de entrada están conectadas al reservorio e alimentan las activaciones de entrada en el reservorio, y también cuentan con pesos aleatorios no entrenados. Los únicos pesos que se entrenan son los pesos de salida que conectan el reservorio con las neuronas de salida.

En el entrenamiento, las entradas se alimentarán al reservorio y se aplicará una salida de maestro a las unidades de salida. Los estados del reservorio se capturan con el tiempo y se almacenan. Una vez que se han aplicado todas las entradas de entrenamiento, se puede utilizar una simple aplicación de regresión lineal entre los estados del reservorio capturados y las salidas objetivo. Estos pesos de salida pueden incorporarse al red existente y utilizarse para entradas novedosas.

La idea es que las conexiones aleatorias y dispersas en el reservorio permiten que los estados anteriores "eco" incluso después de que hayan pasado, por lo que si la red recibe una entrada novedosa que es similar a algo en lo que se entrenó, la dinámica en el reservorio comenzará a seguir la trayectoria de activación adecuada para la entrada y de esa manera puede proporcionar una señal coincidente con lo que se entrenó, y si está bien entrenado podrá generalizar a partir de lo que ya ha visto, siguiendo trayectorias de activación que tendrían sentido dada la señal de entrada que impulsa el reservorio.

La ventaja de este enfoque radica en el procedimiento de entrenamiento increíblemente simple, ya que la mayoría de los pesos se asignan solo una vez y al azar. Sin embargo, son capaces de capturar dinámicas complejas a lo largo del tiempo y son capaces de modelar propiedades de sistemas dinámicos. De lejos, los documentos más útiles que he encontrado sobre ESNs son:

Ambos tienen explicaciones fáciles de entender para acompañar al formalismo y consejos destacados para crear una implementación con orientación para elegir valores de parámetros apropiados.

ACTUALIZACIÓN: El libro de Aprendizaje Profundo de Goodfellow, Bengio y Courville tiene una discusión de alto nivel ligeramente más detallada pero agradable sobre Redes de Estado de Eco. La sección 10.7 discute el problema del gradiente desvaneciente (y explotador) y las dificultades de aprender dependencias a largo plazo. La sección 10.8 trata exclusivamente sobre Redes de Estado de Eco. Específicamente entra en detalles sobre por qué es crucial seleccionar pesos del reservorio que tengan un valor adecuado de radio espectral - trabaja junto con las unidades de activación no lineales para fomentar la estabilidad mientras sigue propagando información a lo largo del tiempo.

3voto

Kyle Puntos 160

Aprender en una ESN no está principalmente forzado a adaptar pesos, sino que respectivamente la capa de salida aprende qué salida producir para el estado actual que tiene la red. El estado interno se basa en la dinámica de la red y se llama estado del reservorio dinámico. Para entender cómo se forman los estados del reservorio, tenemos que mirar la topología de una ESN.

topología de ESN

La(s) unidad(es) de entrada están conectadas a neuronas en las unidades internas (unidades de reservorio), los pesos se inicializan al azar. Las unidades del reservorio están conectadas al azar y de manera dispersa y también tienen pesos aleatorios. La unidad de salida también está conectada a todas las unidades del reservorio, por lo que recibe el estado del reservorio y produce una salida correspondiente.

La activación de la entrada aumenta la dinámica de la red. La señal flota $t$ pasos de tiempo a través de las unidades del reservorio conectadas recurrentemente. Puedes imaginarlo como un eco que ocurre $t$ veces en la red (que se distorsiona). Los únicos pesos que se adaptan son los pesos hacia la unidad de salida. Esto significa que la capa de salida aprende qué salida debe pertenecer a un determinado estado del reservorio. Eso también significa que el entrenamiento se convierte en una tarea de regresión lineal.

Antes de poder explicar cómo funciona el entrenamiento en detalle, tenemos que explicar y definir algunas cosas:

El Teacher Forcing significa alimentar la entrada de series temporales en la red, así como la salida deseada correspondiente (con retraso en el tiempo). Alimentar la salida deseada de $T$ en $t$ se llama retroalimentación de salida. Por lo tanto, necesitamos algunos pesos inicializados al azar almacenados en la matriz $W_{fb}$. En la figura 1, esos bordes se muestran con flechas punteadas.

Definiciones de variables:

  • $r$ = número de unidades de reservorio,
  • $o$ = número de unidades de salida,
  • $t$ = número de pasos de tiempo,
  • $o$ = número de unidades de salida.
  • $T$ = Matriz (de tamaño $t$ x $o$) que contiene la salida deseada para cada paso de tiempo.

Finalmente, ¿cómo funciona el entrenamiento en detalle?

  • Registrar los estados del reservorio durante $t$ pasos de tiempo mientras se aplica el Teacher Forcing. La salida es: Una matriz $M$ de estados de reservorio ($t$ x $r$).
  • Determinar la matriz de peso de salida $W_{out}$ que contiene los pesos de salida finales. Se puede calcular utilizando cualquier técnica de regresión, por ejemplo, utilizando la pseudoinversa. Esto significa, mirar los estados del reservorio y encontrar una función para mapearlos multiplicados por los pesos de salida a la salida. Matemáticamente: Aproximar $M \bullet W_{out} = T -> W_{out} = M \bullet T^{-1}$

Debido a que el aprendizaje es muy rápido, podemos probar muchas topologías de red para encontrar una que se ajuste bien.

Para medir el rendimiento de una ESN:

  • Ejecutar la Red de Estado de Eco más tiempo sin Teacher Forcing (su propia salida se retroalimenta en el reservorio dinámico de la ESN a través de $W_{fb}$).
  • Registrar el rendimiento, como errores cuadrados $\left|\left|M \bullet W_{out} – T\right|\right|^2$

Radio Espectral y ESN

Algunas personas inteligentes han demostrado que la Propiedad de Estado de Eco de una ESN solo se cumple si el Radio Espectral de la matriz de pesos del reservorio es menor o igual a $1$. La Propiedad de Estado de Eco significa que el sistema olvida sus entradas después de un tiempo limitado. Esta propiedad es necesaria para que una ESN no explote en actividad y pueda aprender.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X