4 votos

En pesos de la conexión en una red neuronal Artificial

Yo juego mucho con PyBrain -- Red Neuronal Artificial implementación en Python. He notado que en todos los modelos que he recibido en los pesos de las conexiones son de aproximadamente una distribución normal alrededor de cero con una muy baja desviación estándar (~0.3), lo que significa que ellos están limitadas dentro del plazo de [-1, 1] rango. ¿Qué significa esto? Es un requisito de ANN? Un resultado de backpropagaion de aprendizaje? Un signo de la red de salud? O simplemente una observación aleatoria?

enter image description here

12voto

Laurent K Puntos 2064

Acaba de tomar un vistazo a algunas de mis redes neuronales; los pesos en los aspecto normalmente distribuidos.

Un argumento posible es que cada peso es la suma de los valores de delta IID durante backpropagation, así sean Gaussianos (por el teorema de límite central). Este argumento consiste en hacer algunas simplificaciones; por ejemplo los deltas sumados no son independientes unos de otros durante backpropagation.

1voto

Rob Allen Puntos 486

Me hurgó un poco en el PyBrain fuente y se dio cuenta que algunos parámetros son, si no de otra manera dado, ajuste a una distribución normal, los valores aleatorios con media=0 y desviación estándar=1.

Me imagino que la formación tiende a tira mucho de los pesos de las conexiones a cero (para los no-informativa características) y empuja un par de lejos (de la información), pero eso es sólo especulación. Sería genial ver un diagrama de la característica de kurotsis vs tiempo de entrenamiento; yo podría tratar de que algún día de lluvia si usted no consigue a la primera...

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X