Se puede demostrar que el método de Newton tiene convergencia de segundo orden siempre que se satisfagan algunos criterios, y el descenso de gradiente tiene convergencia de primer orden, pero ¿qué significa aquí orden de convergencia?
En métodos numéricos como los esquemas de diferencias finitas, orden de precisión, por ejemplo, precisión de 2º orden: O(Δx2)O(Δx2) significa que si se reduce el tamaño del paso a la mitad, por ejemplo, el error se reduce en un factor de 4. ¿Existe un análogo para el orden de convergencia?
Estoy un poco confundido por las diferentes representaciones que he visto para el orden de convergencia. Creo que mi interpretación general es que un método convergente de segundo orden será tal que cada iteración posterior dará lugar a una reducción de un factor de 2 en el error entre el óptimo y la ubicación actual. Así que creo que esto también significa que si se tarda NN iteraciones para que un método de primer orden converja a un valor determinado, entonces tardará log(N)log(N) iteraciones para que un método de segundo orden converja al mismo valor? ¿Son correctas estas interpretaciones?
Espero una mínima intuición matemática.