3 votos

¿Por qué son estocásticas las redes de aprendizaje profundo multicapa de Hinton?

Primero resumiré mi comprensión intuitiva (de principiante) de su arquitectura de aprendizaje profundo. Se puede escuchar un breve resumen en Coursera en el vídeo de 5 minutos.

Empezamos con varias capas de autoencoder de forma no supervisada, para llegar a una buena representación/compresión del problema en sí. (Mente, la compresión es casi equivalente a la inteligencia, véase por ejemplo la Premio Hutter ).

A continuación, añadimos las etiquetas reales a los datos, es decir, iniciamos un algoritmo de gradiente para ajustar los pesos de nuestra red preentrenada y llegar a una buena predicción, de forma supervisada. Esto es útil porque empezamos el entrenamiento de gradiente a partir de una red que ya es buena representando el problema, por lo que tenemos menos posibilidades de quedarnos atascados en un óptimo local simplista como hacen las redes multicapa simples.

¿Por qué el uso de funciones de activación estocásticas ayuda en todo el proceso? Podríamos hacer lo mismo (con la misma intuición anterior, al menos) con redes autoencodificadoras deterministas también, aplicando luego el gradiente.

1voto

DavGarcia Puntos 9322

Intuitivamente es porque no quieres que tu autocodificador aprenda lo que hay exactamente en tu conjunto de datos de entrenamiento, sino que quieres que aprenda lo que se le parece.

No utilizar una estrategia para aprender lo que es en torno a su conjunto de datos de entrenamiento conducirá a un sobreajuste.

0 votos

Sospechaba algo así. Aunque existen otras estrategias para evitar el sobreajuste: menos pesos, regularización L1, L2 (penalización sobre los pesos), remuestreo, validación fuera de muestra, etc... ¿por qué es mejor el enfoque estocástico?

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X