15 votos

¿Puede la red neuronal (por ejemplo, red neuronal convolucional) tener pesos negativos?

¿Es posible tener pesos negativos (después de suficientes épocas) para redes neuronales convolucionales profundas cuando usamos ReLU para todas las capas de activación?

1voto

nakajuice Puntos 111

Imagina que tienes pesos óptimos que no son negativos.

Ahora invierte alguna variable de entrada $x'_i = -x_i$. La red óptima para esta configuración es con los pesos de los bordes ${x'_i,y}$ invertidos, por lo que los nuevos pesos no son positivos.

-3voto

John Liu Puntos 995

A menos que utilice otra función de activación, por ejemplo Leaky ReLU. Los pesos rectificados de las capas después de la primera no son negativos, independientemente de cuántas épocas en el entrenamiento.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X