Creo que te refieres a capas LSTM apiladas verticalmente (suponiendo que el eje horizontal sea el eje temporal.
En ese caso, la principal razón para apilar LSTM es permitir una mayor complejidad del modelo. En el caso de una red feedforward simple, apilamos capas para crear una representación jerárquica de los datos de entrada y utilizarla en alguna tarea de aprendizaje automático. Lo mismo ocurre con las LSTM apiladas.
En cada paso de tiempo un LSTM, además de la entrada recurrente. Si la entrada ya es el resultado de una capa LSTM (o una capa feedforward), entonces la LSTM actual puede crear una representación de características más compleja de la entrada actual.
Ahora bien, la diferencia entre tener una capa feedforward entre la entrada de características y la capa LSTM y tener otra capa LSTM es que una capa feedforward (digamos una capa totalmente conectada) no recibe retroalimentación de su paso de tiempo anterior y, por tanto, no puede dar cuenta de ciertos patrones. Con una LSTM en su lugar (por ejemplo, utilizando una representación LSTM apilada) se pueden describir patrones de entrada más complejos en cada capa.
1 votos
¿Realmente querías decir LSTM apiladas una al lado de la otra como en horizontal (a lo largo de pasos temporales) o querías decir apiladas verticalmente (múltiples células LSTM para cada paso temporal)?