Me refiero al método Newton-Raphson para hallar raíces cuadradas de matrices: $$\begin{cases} X_{k+1} &= \frac{1}{2}\big(X_k + X_k^{-1}A\big)\\ X_0 &= A \end{cases}$$ como "solución" a la ecuación $f(X)=X^2-A=O$ .
Para funciones normales $f(x)=x^2-a=0$ tiene sentido por qué a veces el método no converge. Pero no sé cómo explicar intuitivamente o incluso entender por qué la versión matricial a veces diverge.
Por ejemplo: comparado con el método Denman-Beavers, el método Newton-Raphson es bastante malo, ya que a menudo no converge.
¿Cómo se explican estas divergencias?
Respuesta
¿Demasiados anuncios?Una forma posible de ver lo que pides:
Método de Newton para resolver una ecuación $$f(u)=0$$ viene dado por un procedimiento de dirección de minimización para resolver el problema $$\min_u\frac{1}{2}\|f(u)\|^2.$$
Se puede ver como el problema de valor inicial $$\tag{1}\frac{du}{dt}=-[Jf(u)]^{-1}u,\quad u(0)=u_0,$$ porque esto implica que
$$\frac{d}{dt}\left(\frac{1}{2}\|f(u)\|^2\right)=-\|f(u)\|^2\leq 0.$$
Si utiliza Método de Euler para resolver (1) numéricamente, con un tamaño de paso igual a $1$ , se encuentra Método de Newton $$\left\{\begin{array}{rll}J{ f}({ u}_j) { w}_j&=&- { f}({ u}_j)\\ { u}_{j+1}&=&{ u}_j+{ w}_j\end{array}\right.$$
Ahora, si dejas que $$f(X)=X^2-A,$$ donde $A$ y $X$ son matrices, se encuentra que $$J{ f}({ X}_j) { W}_j=X_jW_j+W_jX_j.$$ En general, esto no equivale a $2X_jW_j$ . Pero se mantiene si eliges $X_0=A$ .
Puede encontrar detalles sobre la derivada matricial buscando "( \frac {dX^2}{dX})" en SearchOnMath.
Observación: Si se sigue una dirección decreciente, se puede llegar a un mínimo local o un punto de silla a $\frac{1}{2}\|f(u)\|^2$ . Y esto puede explicar alguna no convergencia del método de Newton a una raíz deseada de $f(u)=0$ .
Por otro lado, ya que estás haciendo la aproximación $u_n\approx u(n)$ en el que $u(t)$ viene dada por la ecuación (1). Se puede tener una mala aproximación, si $u_0$ está lejos de una raíz de $f(u)=0$ y "perdió" la curva que pretende seguir.