4 votos

¿Cuál es el orden de convergencia y la constante de error asintótica para estos resultados?

Definir el orden de convergencia y la constante de error asintótica para un método numérico de resolución de ecuaciones. Se han utilizado dos métodos diferentes para resolver las ecuaciones f(x)=0. Las ejecuciones en Matlab dan los resultados

Metod 1                Metod 2
=======                =======
x dx                   x           dx
4.1667e-01 -8.3333e-02 3.7500e-01 -1.2500e-01
3.9120e-01 -2.5463e-02 3.8194e-01 6.9444e-03
3.8435e-01 -6.8569e-03 3.8197e-01 2.1567e-05
3.8257e-01 -1.7726e-03 3.8197e-01 2.0801e-10
3.8212e-01 -4.5316e-04
3.8201e-01 -1.1551e-04
3.8198e-01 -2.9421e-05
3.8197e-01 -7.4924e-06
3.8197e-01 -1.9079e-06
3.8197e-01 -4.8584e-07

x es una aproximación a la raíz y dx es el número con el que se ha corregido la aproximación anterior. ¿Qué conclusiones se pueden extraer sobre la convergencia de los métodos (orden de convergencia, constante de error asintótica)?

Sé que el orden de un método es p si

lim a medida que n va al infinito para (X(n)-B)/(X(n-1)-B)^p=constante y no cero.

donde B es el número verdadero y X es la medida. Pero no sé cómo aplicar estos conocimientos a este caso real.

Perdón por mi mal formato

7voto

Leon Katsnelson Puntos 274

Siguiendo la sugerencia de Joriki:

Cuando se examinan los índices de convergencia, una estimación común del error que se utiliza es $ e_{n+1} \leq K e_n^p$ con $p \geq 1$ , $K >0$ y $e_n\geq 0$ . Es más sencillo dividir el enfoque en dos casos, $p=1$ y $p >1$ .

$p=1$ se denomina convergencia lineal, y es sencillo ver que $e_n \leq K^n e_0$ . $K$ se denomina tasa, y sólo tiene sentido en este contexto si $K<1$ . Tomando el logaritmo del límite se obtiene $n \log K + \log e_0$ Así que asumiendo que $e_{n+1} \approx K e_n$ , trazado $\log e_n $ contra. $n$ será aproximadamente una línea recta que dará una estimación de $K$ . (Una estimación de $K$ también se puede encontrar simplemente calculando $\frac{e_{n+1}}{e_n}$ .)

Suponiendo que $e_n \approx |\text{dx}|$ arriba, trazando $\log e_n $ contra. $n$ da lo siguiente para el método 1.

enter image description here

Esto es lo más recto que se puede esperar, con pendiente $-1.3392$ que da $K \approx e^{-1.3392} \approx 0.26$ . Por lo tanto, el método 1 es lineal con una tasa de aproximadamente un cuarto.

Trazado $\log e_n $ contra. $n$ para el método 2 da:

enter image description here

por lo que no se ajusta bien a un modelo lineal (afín). De hecho, converge considerablemente más rápido. Esto nos lleva al segundo caso:

$p>1$ se denomina convergencia superlineal. En este caso, la tasa $K$ es mucho menos importante (suponiendo que $e_n \to 0$ por supuesto), y $p$ se denomina orden. La convergencia superlineal es dramáticamente más rápida que la convergencia lineal, y es muy deseable.

Para obtener la convergencia superlineal, multiplicamos la estimación del error por $K^{\frac{1}{p-1}}$ para conseguir $K^{\frac{1}{p-1}} e_{n+1} \leq K^{\frac{1}{p-1}} K e_n^p = (K^{\frac{1}{p-1}} e_n)^p$ . Esto da $K^{\frac{1}{p-1}} e_n \leq (K^{\frac{1}{p-1}} e_0)^{p^k}$ . Esto ilustra lo rápido que se reduce el error y, por supuesto, sólo es útil si $K^{\frac{1}{p-1}} e_0 < 1$ .

Una forma de estimar $p$ es asumir de nuevo $e_{n+1} \approx K e_n^p$ y tomar los registros, lo que da $\log e_{n+1} \approx \log K + p \log e_n$ . Si trazamos $\log e_{n+1}$ contra. $\log e_n$ deberíamos ser capaces de estimar $p$ de la pendiente. Por lo tanto, al trazar $\log e_{n+1}$ contra. $\log e_n$ para el método 2 da:

enter image description here

lo cual es bastante directo. Una estimación rápida de la pendiente utilizando los puntos finales da $ p \approx 1.993 \approx 2$ . Por lo tanto, es probable que sea cuadráticamente convergente.

Tenga en cuenta que, desde un punto de vista numérico, el exponente del error (como en el exponente y la mantisa de la representación decimal) es una aproximación rápida a $\log e_n$ . Por lo tanto, para la convergencia lineal, esperamos que el exponente disminuya linealmente (bueno, afinadamente) con la iteración. Para la convergencia cuadrática, esperamos que el exponente se duplique con cada iteración. Un vistazo rápido confirmará que este es el caso anterior.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X