Estoy estudiando métodos numéricos para ecuaciones diferenciales. He encontrado el método trapezoidal en dos formas, una explícita y otra iterativa. Me gustaría conocer las ventajas e inconvenientes de cada uno de esos métodos. Además, ¿cómo puedo estudiar la estabilidad del método iterativo? ¿Qué definición de estabilidad es la mejor y por qué? A continuación explico ambos métodos.
Consideremos un problema de valor inicial dado por $y' = f(t, y)$ y $y(a) = t_0$ , donde $f$ se define en $[a, b]\times[\alpha, \beta]$ y satisface la propiedad de Lipschitz con la constante de Lipschitz $L$ .
Dado un número natural $n$ y $h = \frac{b-a}{n}$ Estamos tratando de aproximar la solución única del problema en $t_i = a + ih \ \forall i = 0, 1 \ldots n$ . Si $y$ es la solución, llamamos $y_i = y(t_i)$ y denotamos $w_i$ a las aproximaciones obtenidas por el método aplicado.
Uno de los métodos estudiados es el método trapezoidal explícito. Sigue la siguiente regla:
$w_{i+1} = w_i + \frac{h}{2} \left[f(t_i,w_i) + f(t_{i}+h, w_i + h f(t_i,w_i))\right]$
Hemos demostrado que tiene un error local de orden 3 y, por tanto, un error global de orden 2.
Luego, leyendo algunos libros llegué al método trapezoidal iterativo, que resuelve la siguiente ecuación implícita:
$ w_{i}= w_{i-1} + \frac{h}{2} \left[f(t_{i-1}, w_{i-1}) + f(t_i, w_{i})\right] $
La idea es tomar una aproximación inicial $w_i^{(0)}$ y definiendo la siguiente secuencia:
$w_{i} ^{(j+1)} = w_{i-1} + \frac{h}{2} \left[f(t_{i-1}, w_{i-1}) + f(t_i, w_{i}^{(j)})\right]$
El límite de esa secuencia se toma como $w_i$ . He demostrado que la secuencia converge si $hL/2 < 1$ y que si utilizamos $w_i$ entonces el error local es $O(h^3)$ . Sin embargo, ¿por qué es útil este método y cómo puedo estudiar su estabilidad?