No es un ejercicio para la uni ni nada por el estilo, simplemente es algo que me ha preocupado un poco y no encuentro información útil en la web sobre el tema.
Cuando hablamos de funciones escalares de valor real, sabemos que el método de Newton convergerá seguramente a una raíz $s$ de $f(x)$ si nuestro valor inicial $x_0$ está suficientemente cerca de la raíz, es decir, en el intervalo $(s-r,s+r)$ donde $r=|s-x_0|$ la derivada $f'(x)$ nunca es cero (suponiendo que $f'(s)$ no es cero).
Mi pregunta es si podemos ampliar ese criterio a una dimensión superior.
Dejemos que $f: \mathbb R^{n} \to \mathbb R^n$ función diferenciable con derivadas parciales continuas. Sea $s\in \mathbb R^n$ tal que $f(s)=0$ y que $x_0 \in \mathbb R^n$ y $r=|s-x_0|$ .
Supongamos que el jacobiano de $f$ es invertible en cualquier lugar de la esfera de radio $r$ en el epicentro $s$ . Demostrar o refutar que el método de newton convergerá a $s$ si nuestro valor inicial era $x_0$ .
Recordatorio:
El método de Newton se define como $x_{n+1}=x_n-J^{-1}(x_n)f(x_n)$