4 votos

¿Por qué puedo usar este "atajo" para calcular el $k$ la potencia de una matriz multiplicada por un vector?

Esta pregunta está tomada de un examen anterior del curso de álgebra lineal de Gilbert Strang (primavera de 1998).

Encuentra un conjunto completo de eigenvalores y eigenvectores para $ \mathbf {A}= \begin {bmatrix}2&1&1 \\1 &2&1 \\1 &1&2 \end {bmatrix}$ . Escriba $ \mathbf {b}= \begin {bmatrix}2&0&1 \end {bmatrix}^ \intercal $ como una combinación lineal de los eigenvectores y resolver para $ \mathbf {A}^{100} \mathbf {b}$ .

Las dos primeras partes son bastante fáciles; encuentro $ \lambda_i =1,1,4$ con los correspondientes vectores propios $$ \mathbf {x}_i= \begin {bmatrix}-1 \\1\\0\end {bmatrix}, \begin {bmatrix}-1 \\0\\1\end {bmatrix}, \begin {bmatrix}1 \\1\\1\end {bmatrix}$$ Luego $ \mathbf {b}$ puede obtenerse mediante la combinación $ \mathbf {x}_3- \mathbf {x}_1$ .

La última parte es de lo que no estoy seguro. Dejando que $ \mathbf {X}= \begin {bmatrix} \mathbf {x}_1& \mathbf {x}_2& \mathbf {x}_3 \end {bmatrix}$ Puedo escribir $$ \mathbf {A}= \mathbf {X} \begin {bmatrix}1&0&0 \\0 &1&0 \\0 &0&4 \end {bmatrix} \mathbf {X}^{-1}$$ y así $$ \mathbf {A}^{100}= \mathbf {X} \begin {bmatrix}1&0&0 \\0 &1&0 \\0 &0&4^{100} \end {bmatrix} \mathbf {X}^{-1}$$ Ahora bien, siendo esta una pregunta de examen urgente, tengo la sospecha de que llevar a cabo la multiplicación de esta matriz resultante por $ \mathbf {b}$ tomará demasiado tiempo, así que me refiero a la solución. ( Nota : Hay una ligera diferencia de signo en relación a los eigenvectores que uso; la solución en cambio usa $ \mathbf {y}_1=- \mathbf {x}_1$ para que $ \mathbf {b}= \mathbf {x}_3 \color {red}+ \mathbf {y}_1$ .) Simplemente dice

$$ \mathbf {A}^{100} \mathbf {b}=4^{100} \mathbf {x}_3+1^{100} \mathbf {y}_1= \begin {bmatrix}4^{100}+1 \\4 ^{100}-1 \\4 ^{100} \end {bmatrix}$$

que parece evitar completamente la multiplicación por $ \mathbf {X}$ y su inverso.

No me queda claro inmediatamente por qué puedo hacer algo así: si $ \mathbf {x}$ es un vector propio de $ \mathbf {A}= \mathbf {X \Lambda X}^{-1}$ entonces para $k \in\mathbb {N}$ , $$ \mathbf {A}^k \mathbf {x}= \mathbf {X} \mathbf { \Lambda }^k \mathbf {X}^{-1} \mathbf {x}= \mathbf { \Lambda }^k \mathbf {x}$$ ¿Tiene algo que ver directamente con $ \mathbf {x}$ estando en el espacio de la columna de $ \mathbf {X}$ ?

3voto

kccu Puntos 2010

Si $ \lambda $ es un valor propio de $A$ correspondiente al eigenvector $x$ Entonces $ \lambda ^n$ es un valor propio de $A^n$ correspondiente al eigenvector $x$ . Esto se puede probar por inducción. El caso $n=1$ es sólo la suposición original. Ahora asume $A^{n-1}x= \lambda ^{n-1}x$ . Luego $A^nx=A(A^{n-1}x)=A( \lambda ^{n-1}x)= \lambda ^{n-1}Ax= \lambda ^{n-1} \lambda x= \lambda ^n x$ .

Aplicando esto a su problema \begin {alineado*} A^{100}b&=A^{100}(x_3-x_1) \\ &=A^{100}x_3-A^{100}x_1 \\ &=4^{100}x_3-1^{100}x_1 \\ &= \begin {bmatrix}4^{100}+1 \\4 ^{100}-1 \\4 ^{100} \end {bmatrix}. \end {alineado*}

2voto

Noble Mushtak Puntos 701

Tienes $b=x_3+y_1$ donde $Ax_3=4x_3$ y $Ay_1=1y_1$ . Así que lo has hecho: $$A^{100}b=A^{100}(x_3+y_1)=A^{100}x_3+A^{100}y_1=4^{100}x_3+1^{100}y_1$$ Es importante recordar que para cualquier eigenvector $x$ donde $Ax= \lambda x$ multiplicando $A$ sucesivamente es lo mismo que multiplicar $ \lambda $ excesivamente, así que $A^kx= \lambda ^kx$ .

2voto

Mouffette Puntos 205

No necesitas usar explícitamente la diagonalización $A= X \Lambda X^{-1}$ . Ya sabes $A x_1 = x_1$ y $A x_3 = 4 x_3$ así que \begin {alinear} A(x_3-x_1) &= 4x_3 - x_1 \\ A^{100}(x_3-x_1) &= 4^{100} x_3 - x_1 \end {alinear}

1voto

Ashwin Ganesan Puntos 1279

Una razón para calcular los eigenvectores de una matriz es que no cambian de dirección cuando se multiplican por la matriz. Así que, si un $n \times n$ matriz $A$ tiene una base $x_1, \ldots ,x_n$ de eigenvectores, entonces $A$ toma cada $x_i$ a un múltiplo escalar $ \lambda_i x_i$ de $x_i$ (así, la dirección de los vectores propios no cambia al multiplicarse por $A$ pero la magnitud puede cambiar). La transformación lineal representada por $A$ se representa esencialmente por una matriz diagonal con respecto a una base de vectores propios (y las matrices diagonales son más sencillas de entender y más fáciles de trabajar).

Esto implica que es fácil de calcular $Ab$ si $b$ se expresa como una combinación lineal de los vectores propios $x_i$ . Por ejemplo, si $b= \sum_ {i=1}^{n} c_i x_i$ Entonces $Ab = \sum_ {i=1}^n c_i(Ax_i)= \sum_ {i=1}^n c_i \lambda_i x_i$ donde la primera igualdad se deriva de la linealidad de $A$ y la segunda igualdad se mantiene porque el $x_i$ son vectores propios con valor propio $ \lambda_i $ . Fíjese que una vez $b$ se expresa en términos de los eigenvectores $x_1, \ldots ,x_n$ porque $A$ es lineal, podríamos calcular $Ab$ inmediatamente (sin hacer ninguna multiplicación de $A$ con $b$ ).

En su ejemplo, observe que $A$ toma el eigenvector $x_i$ a $ \lambda_i x_i$ para $i=1,2,3$ . Por lo tanto, $A^2$ toma $x_i$ a $A(Ax_i)=A( \lambda_i x_i)= \lambda_i (Ax_i) = \lambda_i ^2 x_i$ . Y $A^{100}$ toma $x_i$ a $ \lambda_i ^{100} x_i$ . Desde $b=x_3-x_1$ , $A^{100}$ toma $b$ a $A^{100}b = A^{100}x_3 - A^{100} x_1 = \lambda_3 ^{100} x_3 - \lambda_1 ^{100} x_1$ $= 4^{100}(1,1,1)-1^{100}(-1,1,0) = (4^{100}-1,4^{100}+1,4^{100})$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X