13 votos

A "geométrica ' ' infinita suma de matrices

La suma $$ I + A + A^2 + A^3 + \cdots $$ equals $$(I-A)^{-1}$$ under the assumption $\rho(A) < 1$, que es necesario hacer la suma converge. Mi pregunta: ¿Qué significa la suma de $$ I + A^T A + (A^2)^T A^2 + (A^3)^T A^3 + \cdots$ $ igual bajo el mismo supuesto? ¿Existe una expresión similar limpia?

Es cierto que esta última suma converge bajo la Asunción $\rho(A)<1$. La conjetura '' obvio '' $(I-A^T A)^{-1}$ por la suma no es cierto porque $ (A^2)^T A^2 \neq (A^T A)^2$; de hecho, esta conjetura no incluso tiene sentido porque no descarta $\rho(A)<1$ $\rho(A^T A)=1$.

11voto

Xetius Puntos 10445

FWIW: Llamada $S$ la suma, siempre tiene sentido. Entonces $A^TSA=S-I$, por lo que la serie converge a una raíz de esta ecuación.

Si $n=2$, entonces el determinante de lo endomorfismos $S\mapsto A^TSA-S$ $M_n(\mathbb C)$ $(\det A-1)^2\det(A^2-I)$, así que para la mayoría $A$s, la solución es única. Mayor $n$, no tengo ni idea.

4voto

tooshel Puntos 475

Si se define $F:M_n\to M_n$ $F(X)=A^\mathrm{T}XA$ y $\mathrm{id}:M_n\to M_n$ es el mapa de la identidad, entonces su suma es $(\mathrm{id} - F)^{-1}(I)$.

3voto

Chris Ballance Puntos 17329

Si $I + A^T A + (A^2)^T A^2 + (A^3)^T A^3 + \cdots$ converge a un $S$, debemos tener $A^TSA=S-I$. Ahora, si $\rho(A)<1$, la solución de $S$ a la ecuación anterior debe existir y ser único, porque $$ A ^ TSA = S-I\ \Leftrightarrow\ ISI-A ^ TSA = I \ \Leftrightarrow\ (I\otimes I - A ^ A^T)\textrm{vec}(S)=\textrm{vec}(I) de T\otimes $$ y $\rho(A^T\otimes A^T)=\rho(A)^2<1$. Además, $$ \begin{eqnarray} A^TSA&=&S-I,\\ \Rightarrow(A^T)^2SA^2&=&A^TSA-A^TA=S-I-A^TA,\\ &\vdots&\\ \Rightarrow(A^T)^nSA^n&=&S-I-A^TA-(A^T)^2A^2-\ldots-(A^T)^{n-1}A^{n-1}. \end{eqnarray} $$ Desde $\rho(A)<1$ $n\rightarrow\infty$, tenemos $A^n\rightarrow0$ y a su vez $(A^T)^nSA^n\rightarrow0$. Por lo tanto convergen $I + A^T A + (A^2)^T A^2 + (A^3)^T A^3 + \cdots$ $S$.

1voto

Jorrit Reedijk Puntos 129

[actualización 4] Podemos obtener un resultado exacto

Aquí les doy un ejemplo práctico utilizando Pari/GP. He adaptado las letras de las matrices, la había utilizado la notación no era muy elegante....

Queremos que

$$ \small S = I + A \cdot A^\tau + A^2 \cdot (A^\tau)^2 + A^3 \cdot (A^\tau)^3 + ... $$ de donde también $$ \small S = I + A \cdot S \cdot A^\tau $$

La matriz de Una puede ser muy general; por el uso de diagonalización de Una y de la forma cerrada de la serie geométrica aplicada a los valores propios de Una obtener una exacta resultado.

[actualización 5] Si Una es simétrica, entonces el proceso se simplifica de nuevo: La diagonalización $\small A=W\cdot D \cdot W^{-1} $ da una matriz W que puede ser normativa para ser una rotación de la matriz, por lo $ \small M=W^{-1}=W^\tau$,$ \small Mm = M \cdot M^\tau = I $, así que Gg es diagonal con las entradas $ \small g_{k,k}= 1/( 1-\lambda_k^2)$ donde $\small \lambda_k$ son los autovalores (sus plazas no puede ser 1 ahora, pero la relación de pares es ahora irrelevante). El resultado es sencillamente $ \small S = W \cdot Gg \cdot W^\tau $
[/actualización 5]


 \\ Pari/GP 
 d = 4 
 A = matriz(d,d,r,c,c^r) \\ crear algunos diagonizable matriz
 W = mateigen(A)
 M = W^-1
 D = diag(M*a*C);
 mydisplay([W, Mat(D)]) \\ usuario función compacto de salida 

 Mm = M*M~

 \\ Ahora de forma cerrada para la serie geométrica de la
 \\ autovalores entran en juego. 
 \\ Nota que los autovalores( D) puede ser mayor que 1, 
 \\ pero ninguna pareja se le permite dar un producto de 1 
 Gg = matrix(d,d, r,c, Mm [r,c] / (1 - D[r] * D[c] ) )

 S = W*Gg*W~ \\ resultado exacto
 \\ luego hacer una verificación cruzada por implicite definición 
 chk = matid(d) + a * S * ~ 
 err = round(S - ch, ch, ch, y e) \\ diferencia es cero 

El ejemplo-matrices:

$ \qquad \pequeño \begin{array} {lll} A &=& \begin{array} {rrrrr} 1 & 2 & 3 & 4 \\ 1 & 4 & 9 & 16 \\ 1 & 8 & 27 & 64 \\ 1 & 16 & 81 & 256 \end{array} \\ \\ \\ W ,D &=& \begin{array} {rrrr|r} -10.952794 & 8.1645134 & -0.97056263 & 0.017714558 & 0.11272446 \\ 10.508537 & 4.2521778 & -1.8354857 & 0.066926874 & 1.0292480 \\ -5.0996430 & -4.0885199 & -2.6756811 & 0.25725908 & 8.9314971 \\ 1 & 1 & 1 & 1 & 277.92653 \end{array} \\ \\ \\ Mm &=& \begin{array} {rrrr} 0.0039983491 & 0.00083487726 & -0.0016554169 & -0.00076571340 \\ 0.00083487726 & 0.010062383 & 0.0027137791 & -0.0041346567 \\ -0.0016554169 & 0.0027137791 & 0.081999971 & -0.013791508 \\ -0.00076571340 & -0.0041346567 & -0.013791508 & 0.93753657 \end{array} \\ \\ \\ Gg&=&\begin{array} {rrrr} 0.0040498092 & 0.00094445419 & 0.24350752 & 0.000025246807 \\ 0.00094445419 & -0.16953880 & -0.00033124251 & 0.000014504751 \\ 0.24350752 & -0.00033124251 & -0.0010409834 & 0.0000055581782 \\ 0.000025246807 & 0.000014504751 & 0.0000055581782 & -0.000012137628 \end{array} \\ \\ \\ S &=& \begin{array} {rrrr} -5.8030040 & -3.8986593 & 14.233205 & -4.3361544 \\ -3.8986593 & -11.925784 & -1.9019096 & 1.4489718 \\ 14.233205 & -1.9019096 & 3.9412187 & -1.2246860 \\ -4.3361544 & 1.4489718 & -1.2246860 & 0.32178997 \end{array} \\ \\ \\ chk &=& \begin{array} {rrrr} -5.8030040 & -3.8986593 & 14.233205 & -4.3361544 \\ -3.8986593 & -11.925784 & -1.9019096 & 1.4489718 \\ 14.233205 & -1.9019096 & 3.9412187 & -1.2246860 \\ -4.3361544 & 1.4489718 & -1.2246860 & 0.32178997 \end{array} \\ \\ \\ err &=& \begin{array} {rrrr} 0 & . & . & . \\ . & 0 & . & . \\ . & . & 0 & . \\ . & . & . & 0 \end{array} \end{array} $


(A continuación se muestra el texto antiguo de mi respuesta, sólo para referencia y explicación del principio:)
He posiblemente otra utilidad de reformulación, no sé si esto se inscribe en el ámbito de la pregunta. Supongo que a es diagonalizable y no considerar una serie de convergencia - es sólo un boceto.

Para facilitar la notación de presentar a $ \rm\ B = transpose(A) $, minúsculas denotan la inversa de la relacionada con mayúsculas denota la matriz. $ \rm\ I $ es la matriz identidad.

Tenemos desde el planteamiento del problema $ \rm\ S = I + B S A $

Si introducimos la diagonalización de Una tenemos $ \rm\ A = W * D * w $ donde D es la diagonal. Uso de la M y m para la transposición de W y w, entonces la diagonalización de B es $ \rm\ B = m * D * M $

Así tenemos $$ S = I + BSA = I + mDM*S*WDw $$ and thus $$ MSW = MW + D MSW D $$

Vamos a denotar $ \rm\ MSW = U$ $ \rm\ MW = t$ Entonces esto también significa: $$ U = t + D U D = t + D t D + D^2tD^2 + D^3tD^3+... $$ Tenga en cuenta que t es simétrica y por lo tanto U es simétrica y $ \rm\ S = mUw $ entonces es simétrica así.

Porque D es la diagonal esto ahora puede ser descrito más fácilmente para cada elemento de matriz de forma individual. Tenemos, uso de r y c para la fila y la columna inbdex respectivamente $$ U_{r,c} = t_{r,c}*(1 + D_rD_c + (D_rD_c)^2 + ...) = t_{r,c}/(1-D_rD_c) $$ Tener la matriz U por este, S es $$S = m * U * w $$ [actualización nota: he editado la primera versión porque me había tomado Un y B en el orden equivocado]
[edit 2]: los denominadores en la descripción de los elementos de U que parecen describir el rango de aplicabilidad. Desde que la serie geométrica con cociente q se define también por la divergencia en los casos (excepto para p=1) se podría descartar la condición de $ \varrho(A) \lt 1 $ y reemplazarlo con algo como : Una no puede tener al mismo tiempo un valor de x y su recíproco como valores propios


i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X