Mi profesor demostró que la segunda derivada de la entropía cruzada es siempre positiva, por lo que la función de coste de las redes neuronales que utilizan la entropía cruzada es convexa. ¿Es esto cierto? Estoy bastante confundido sobre esto porque siempre he aprendido que la función de coste de las RNA no es convexa. ¿Alguien puede confirmarlo? Muchas gracias. http://z0rch.com/2014/06/05/cross-entropy-cost-function
Si quieres ser pedante en lugar de informal, la definición habitual de convexidad de una función no requiere un mínimo global único, por lo que la no unicidad de los mínimos no implica la no convexidad. Sin embargo, permutar los pesos de esta manera tampoco cambia la salida real de tu red, así que incluso sin convexidad, podrías tener la propiedad de que tu función de entrenamiento converge a la misma ~función cada vez. Apuesto a que hay una manera de romper esta simetría para ordenar los pesos sin arruinar otras propiedades de la función de pérdida.
8 votos
¿El enlace está roto?