10 votos

¿Por qué ' t profundo aprendizaje trabajo con pequeña cantidad de datos?

Soy nuevo en el aprendizaje profundo, por lo que esta puede ser una pregunta trivial. Pero me pregunto por qué aprendizaje profundo (o red neuronal) no funciona muy bien en pequeños datos etiquetados. Cualquier trabajos de investigación que he leído, sus conjuntos de datos son enormes. Intuitivamente no es sorprendente porque nuestro cerebro necesita mucho tiempo para entrenarse. Pero hay una prueba matemática o razón ¿por qué la red neuronal no funciona bien en estos casos?

11voto

166_MMX Puntos 481

Las redes neuronales utilizadas en modelos de aprendizaje profundo típico tienen un gran número de nodos con muchas capas y por lo tanto muchos de los parámetros que deben estimarse. Esto requiere una gran cantidad de datos. Una red de nervios pequeños (con menos capas y menos parámetros libres) puede ser entrenada con éxito con un pequeño conjunto de datos - pero esto no se describe generalmente como "aprendizaje profundo".

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X