Tom Hale es un usuario de Stack Exchange, si haces click en el enlace verás su perfil en inglés.
Últimas Preguntas
- 1 resp
¿Cuál es la derivada de la función de activación ReLU?
el 22 de Marzo, 2018 54 votos - 3 resp
¿Por qué es tanh casi siempre mejor que sigmoide como una función de activación?
el 6 de Marzo, 2018 70 votos
Últimas Respuestas
- 6 votos
¿Por qué es tanh casi siempre mejor que sigmoide como una función de activación?
el 3 de Marzo, 2018 6 votos
Etiquetas favoritas
- 2 x estadística
- 1 x de-aprendizaje-de-la-máquina
- 1 x redes-de-neuronas
- 1 x retropropagación
- 1 x sigmoide-de-la-curva-de
- 1 x self-study
- 1 x neural-networks