22 votos

Cómo entender la descomposición espectral geométricamente

Que $A$ ser una $k\times k$ simétrico definido positivo matriz. Por la descomposición espectral, tenemos

$$A = \lambda_1e_1e_1'+ ... + \lambda_ke_ke_k'$$

y

$$A^{-1} = \sum_{i=1}^k\frac{1}{\lambda_i}e_ie_i'$$

¿Cómo entender la descomposición espectral y la relación entre $A$y $A^{-1}$ geométricamente?

31voto

TVK Puntos 131

Se requiere que la matriz de $A$ ser positiva definida, pero no tiene que ser así, para ser diagonalizable. De hecho, en los números complejos, lo único que necesitábamos $A$ a viajar con su adjunto (transporte y complejo conjugado de la original, $A^†$), que, a continuación, $A$ se llama normal de la matriz, es decir, si $A\cdot A^†=A^†\cdot A$, entonces existe una base de $\mathbb C^k$ formado por un conjunto completo de linealmente independiente de vectores propios ortonormales $\lvert e_i\rangle$, correspondientes a autovalores $\lambda_i$ (posiblemente repetidos) de $A$, por lo que el $$A=\sum_{i=1}^k \lambda_i\lvert e_i\rangle\langle e_i\lvert\;\; \Rightarrow\;\; A^{-1}=\sum_{i=1}^k \frac{1}{\lambda_i}\lvert e_i\rangle\langle e_i\lvert.$$ El $\lvert e_i\rangle\langle e_i\lvert$ son witten en la notación de Dirac y se su $e_ie'_i$. Concretamente, cada una de las $\lvert e_i\rangle\langle e_i\lvert$ es un proyector en la línea se extendió por $\lvert e_i\rangle$; de hecho, si escribimos el producto escalar por $\langle e_i\,\lvert\,v\rangle$, cada proyector aniquila a todos los componentes de $\lvert v\rangle$ con la excepción de $v_i\lvert e_i\rangle$ debido a orthonormality de $\{\lvert e_j\rangle\}_{j=1}^k$, lo $\lvert e_i\rangle\langle e_i\lvert$ da la longitud de la proyección del segmento $\lvert v\rangle$ proyectado en la línea se extendió por el vector propio unitario $\lvert e_i\rangle$. Esta es la "descomposición espectral" de $A$ y da a la acción de la matriz $A$ en términos de una superposición lineal de los proyectores. De hecho, desde los autovalores $\lambda_i$ puede aparecer más de una vez (debido a la multiplicidad $n_i$), se puede recoger de la escuela primaria, $n_i$ proyectores $\{\lvert e_j\rangle\langle e_j\lvert\}_{j=i}^{i+n_i}$ comunes autovalor $\lambda_i$ en un proyector $P_i:=\sum_{j=i}^{i+n_i}\lvert e_j\rangle\langle e_j\lvert$, por lo que su matriz se expande en los diferentes $m\leq k$ autovalores: $$A=\sum_{i=1}^m \lambda_i P_i\;\; \Rightarrow\;\; A^{-1}=\sum_{i=1}^m \frac{1}{\lambda_i}P_i.$$

Por lo tanto, para interpretar geométricamente lo $A, A^{-1}$ hacer, solo tenemos que comprender la acción de los proyectores $P_i$. Esto es sencillo: $P_i$ es una combinación lineal de primaria proyectores de cualquier vector en las líneas que se extendió por $\lvert e_j\rangle$$j=i,\dots,i+n_i$, lo $P_i\lvert v\rangle$ proyectos $\lvert v\rangle$ sobre el subespacio lineal (por ejemplo, línea, plano, hyperplane...) generado por los vectores propios, lo $P_i\lvert v\rangle$ es la componente vectorial de $\lvert v\rangle$ en ese subespacio. Es decir $\lvert v\rangle=\sum_i P_i\lvert v\rangle$.

Por lo tanto, podemos interpretar geométricamente la descomposición espectral de $A$ como este: si $A$ es normal, a $k\times k$ matriz que actúa sobre un vector de $\mathbb C^k$, corresponde a una lineal mapa, endomorfismo de $\mathbb C^k$, que se lleva a vectores linealmente da nuevos vectores; su acción en un vector $\lvert v\rangle$ puede ser visto como una composición de acciones para cada componente del vector en cada una de las $m$ subespacios propios de a $A$, los cuales son subespacios lineales de $\mathbb C^k$ de la dimensión de $n_i$ correspondiente a cada uno de los posibles valores propios $\lambda_i$$A$. Los subespacios propios son subespacios invariantes porque $A$ transforma vectores en ellos a los nuevos vectores en ellas, sin mezclar subespacios propios (por ejemplo, tomando los vectores de una eigenplane en el mismo plano). Por lo tanto, $\lambda_i P_i\lvert v\rangle$ toma la componente vectorial de $\lvert v\rangle$ en el subespacio propio generado por los vectores propios corresopnding al autovalor $\lambda_i$, y las escalas de dicho componente por $\lambda_i$, es decir, sólo hace que el componente de igual, mayor o menor de acuerdo a $|\lambda_i|\geq 1$ o $|\lambda_i|< 1$ (y cambiar la orientación de ese componente si $\lambda_i <0$). Así la acción de $A$ $\lvert v\rangle$ tramos de sus componentes en cada uno de los subespacios propios por un factor de $\lambda_i$, dando al final un nuevo vector con los nuevos componentes. La acción de la $A^{-1}$ es análogo, pero con cada uno de los estiramientos factores invertida (así lo $A$ escalas, $A^{-1}$ escalas hacia abajo y viceversa). Por ejemplo, si $A$ es positiva definida real simétrica la matriz, como usted dice en la pregunta, a continuación, sus autovalores son todos positivos desde $\langle e_i\lvert A\lvert e_i\rangle=\lambda_i > 0$, por la positividad y $\{\lvert e_i\rangle\}_{i=1}^k$ ortonormales. Por lo tanto, en este caso en particular, la acción de la $A$ en un vector no cambia la orientación de sus proyecciones en cada uno de los subespacios propios de a $A$, justs escalas de ellos (al contrario que en el ejemplo de la foto de abajo).

enter image description here

ADEMÁS: UNA similar interpretación geométrica puede ser intentado por el canónica de Jordan en la forma de una matriz; en ese caso, además de la diagonal términos, parece cruz de término proyectores de tipo $\lambda_i\lvert e_{i+1}\rangle\langle e_i\lvert$ (o $\lvert e_{i-1}\rangle\langle e_i\lvert$ dependiendo de la orden de los vectores en la generalización de la eigenbasis) en la descomposición de la $A$. Por lo tanto, junto con la ampliación de la componente en la dirección del autovector generalizado, hay también una corrección de la dirección de ese componente, sino en la dirección de la anterior (o siguiente) autovector generalizado de la base. Para todos finito dimensionales espacios vectoriales sobre un campo, el de las matrices o lineal mapas de tener todos sus vectores propios más que de campo (es decir, su polinomio característico se divide en factores lineales sobre él), siempre tienen una forma canónica de Jordan; por lo tanto, en esos casos (por ejemplo, siempre por encima de los números complejos) todas las matrices/lineal mapas puede ser entendido geométricamente por sus acciones en vectores, como una composición de las escalas y los desplazamientos de sus proyecciones sobre cada generalizada eigensubspace. En este caso, la inversa de una matriz de Jordan en la forma no es tan simple, y por lo que sus interpretaciones geométricas no tan fácilmente relacionados.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X