Soy nuevo en el aprendizaje profundo, por lo que esta puede ser una pregunta trivial. Pero me pregunto por qué aprendizaje profundo (o red neuronal) no funciona muy bien en pequeños datos etiquetados. Cualquier trabajos de investigación que he leído, sus conjuntos de datos son enormes. Intuitivamente no es sorprendente porque nuestro cerebro necesita mucho tiempo para entrenarse. Pero hay una prueba matemática o razón ¿por qué la red neuronal no funciona bien en estos casos?
Respuesta
¿Demasiados anuncios?Las redes neuronales utilizadas en modelos de aprendizaje profundo típico tienen un gran número de nodos con muchas capas y por lo tanto muchos de los parámetros que deben estimarse. Esto requiere una gran cantidad de datos. Una red de nervios pequeños (con menos capas y menos parámetros libres) puede ser entrenada con éxito con un pequeño conjunto de datos - pero esto no se describe generalmente como "aprendizaje profundo".