Por ejemplo
http://www.wildml.com/2015/09/recurrent-neural-networks-tutorial-part-1-introduction-to-rnns/
¿Las RNN solo pueden tener una capa por alguna razón? ¿O estos ejemplos simplemente usan una capa para simplificar el concepto?
Por ejemplo
http://www.wildml.com/2015/09/recurrent-neural-networks-tutorial-part-1-introduction-to-rnns/
¿Las RNN solo pueden tener una capa por alguna razón? ¿O estos ejemplos simplemente usan una capa para simplificar el concepto?
Acabo de descubrir la respuesta. Hay casos en los que capas profundas son posibles, pero como los aspectos temporales ya añaden complejidad computacional, generalmente se utilizan solo unas pocas capas.
Aprendí esto en el curso de aprendizaje profundo de Andrew Ng, en la sección de modelos de secuencia.
I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.