Existe un debate sobre por qué el método Newton no se utiliza ampliamente en el aprendizaje automático. En su lugar, se tiende a utilizar el descenso de gradiente.
-
Algunas personas afirman que el método Newton no se utiliza porque implica la segunda derivada . ¿Cómo es eso? ¿Indirectamente? ¿Por qué? ¿El método de Newton no desprecia la segunda derivada?
-
¿Existe un nombre para Método de Newton con convergencia cúbica ?
-
¿Podemos afirmar que el método de Newton es una forma de descenso de gradiente?