Siguiendo la sugerencia de Joriki:
Cuando se examinan los índices de convergencia, una estimación común del error que se utiliza es $ e_{n+1} \leq K e_n^p$ con $p \geq 1$ , $K >0$ y $e_n\geq 0$ . Es más sencillo dividir el enfoque en dos casos, $p=1$ y $p >1$ .
$p=1$ se denomina convergencia lineal, y es sencillo ver que $e_n \leq K^n e_0$ . $K$ se denomina tasa, y sólo tiene sentido en este contexto si $K<1$ . Tomando el logaritmo del límite se obtiene $n \log K + \log e_0$ Así que asumiendo que $e_{n+1} \approx K e_n$ , trazado $\log e_n $ contra. $n$ será aproximadamente una línea recta que dará una estimación de $K$ . (Una estimación de $K$ también se puede encontrar simplemente calculando $\frac{e_{n+1}}{e_n}$ .)
Suponiendo que $e_n \approx |\text{dx}|$ arriba, trazando $\log e_n $ contra. $n$ da lo siguiente para el método 1.
Esto es lo más recto que se puede esperar, con pendiente $-1.3392$ que da $K \approx e^{-1.3392} \approx 0.26$ . Por lo tanto, el método 1 es lineal con una tasa de aproximadamente un cuarto.
Trazado $\log e_n $ contra. $n$ para el método 2 da:
por lo que no se ajusta bien a un modelo lineal (afín). De hecho, converge considerablemente más rápido. Esto nos lleva al segundo caso:
$p>1$ se denomina convergencia superlineal. En este caso, la tasa $K$ es mucho menos importante (suponiendo que $e_n \to 0$ por supuesto), y $p$ se denomina orden. La convergencia superlineal es dramáticamente más rápida que la convergencia lineal, y es muy deseable.
Para obtener la convergencia superlineal, multiplicamos la estimación del error por $K^{\frac{1}{p-1}}$ para conseguir $K^{\frac{1}{p-1}} e_{n+1} \leq K^{\frac{1}{p-1}} K e_n^p = (K^{\frac{1}{p-1}} e_n)^p$ . Esto da $K^{\frac{1}{p-1}} e_n \leq (K^{\frac{1}{p-1}} e_0)^{p^k}$ . Esto ilustra lo rápido que se reduce el error y, por supuesto, sólo es útil si $K^{\frac{1}{p-1}} e_0 < 1$ .
Una forma de estimar $p$ es asumir de nuevo $e_{n+1} \approx K e_n^p$ y tomar los registros, lo que da $\log e_{n+1} \approx \log K + p \log e_n$ . Si trazamos $\log e_{n+1}$ contra. $\log e_n$ deberíamos ser capaces de estimar $p$ de la pendiente. Por lo tanto, al trazar $\log e_{n+1}$ contra. $\log e_n$ para el método 2 da:
lo cual es bastante directo. Una estimación rápida de la pendiente utilizando los puntos finales da $ p \approx 1.993 \approx 2$ . Por lo tanto, es probable que sea cuadráticamente convergente.
Tenga en cuenta que, desde un punto de vista numérico, el exponente del error (como en el exponente y la mantisa de la representación decimal) es una aproximación rápida a $\log e_n$ . Por lo tanto, para la convergencia lineal, esperamos que el exponente disminuya linealmente (bueno, afinadamente) con la iteración. Para la convergencia cuadrática, esperamos que el exponente se duplique con cada iteración. Un vistazo rápido confirmará que este es el caso anterior.