8 votos

Probar o refutar - La convergencia del método de Newton en dimensiones superiores

No es un ejercicio para la uni ni nada por el estilo, simplemente es algo que me ha preocupado un poco y no encuentro información útil en la web sobre el tema.

Cuando hablamos de funciones escalares de valor real, sabemos que el método de Newton convergerá seguramente a una raíz $s$ de $f(x)$ si nuestro valor inicial $x_0$ está suficientemente cerca de la raíz, es decir, en el intervalo $(s-r,s+r)$ donde $r=|s-x_0|$ la derivada $f'(x)$ nunca es cero (suponiendo que $f'(s)$ no es cero).

Mi pregunta es si podemos ampliar ese criterio a una dimensión superior.

Dejemos que $f: \mathbb R^{n} \to \mathbb R^n$ función diferenciable con derivadas parciales continuas. Sea $s\in \mathbb R^n$ tal que $f(s)=0$ y que $x_0 \in \mathbb R^n$ y $r=|s-x_0|$ .

Supongamos que el jacobiano de $f$ es invertible en cualquier lugar de la esfera de radio $r$ en el epicentro $s$ . Demostrar o refutar que el método de newton convergerá a $s$ si nuestro valor inicial era $x_0$ .

Recordatorio:

El método de Newton se define como $x_{n+1}=x_n-J^{-1}(x_n)f(x_n)$

1voto

JohnB Puntos 214

Esta generalización del método de Newton también funciona.

Dejemos que $\varepsilon > 0$ a elegir más tarde. Sea $\delta$ sea tal que $\|J(x)-J(x_0)\| \leq \varepsilon$ y $\|J^{-1}(x)-J^{-1}(x_0)\| \leq \varepsilon$ en un $\delta$ -vecino de $x_0$ .

Para $x \in \overline{B}(x_0, \delta)$ , dejemos que $T(x) := x-J^{-1}(x)f(x)$ . Esto está bien definido si $\varepsilon < \|J^{-1}(x_0)\|$ . Entonces:

$$f(x) = \int_0^1 J(x_0+t(x-x_0)) \cdot (x-x_0) \ dt.$$

Déjame escribir $J_t (x) := J(x_0+t(x-x_0))$ . Entonces:

$$J^{-1}(x)f(x) = \int_0^1 J^{-1}(x) \cdot J_t(x) \cdot (x-x_0) \ dt = x-x_0 + \int_0^1 [J^{-1}(x) \cdot J_t(x) - I]\cdot (x-x_0) \ dt$$

$$\|T(x)-x_0\| = \left\| \int_0^1 [J^{-1}(x) \cdot J_t(x) - I]\cdot (x-x_0) \ dt \right\| \leq \left( \max_{t \in [0,1]} \left\| J^{-1}(x) \cdot J_t(x) - I \right\| \right) \cdot \|x-x_0\|$$

Pero, para todos $x$ y $y$ en el cerrado $\delta$ -vecino de $x_0$ sabemos que $\|J(x)-J(y)\| \leq 2 \varepsilon$ . Por lo tanto,

$$\max_{t \in [0,1]} \left\| J^{-1}(x) \cdot J_t(x) - I \right\| \leq \|J^{-1}(x)\| \cdot \left( \max_{t \in [0,1]} \left\| J_t(x) - J(x) \right\| \right) \leq 2 \varepsilon \left(\|J^{-1}(x_0)\|+\varepsilon \right).$$

Ahora, elija $\varepsilon < \|J^{-1}(x_0)\|$ tal que el lado derecho es, digamos, como máximo $1/2$ . Obsérvese que implica que $T$ mapas $\overline{B}(x_0, \delta)$ en sí mismo, por lo que podemos iterar $T$ tantas veces como queramos. Entonces para todos $x$ en $\overline{B}(x_0, \delta)$ para todos $n \geq 0$ :

$$\|T^n (x)-x_0 \| \leq \delta 2^{-n},$$

por lo que el método de Newton converge al menos a una velocidad exponencial (en realidad más rápida).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X