267 votos

Los vectores propios de las matrices simétricas reales son ortogonales

¿Puede alguien indicarme un artículo, o mostrar aquí, por qué las matrices simétricas tienen vectores propios ortogonales? En particular, me gustaría ver la prueba de que para una matriz simétrica $A$ existe una descomposición $A = Q\Lambda Q^{-1} = Q\Lambda Q^{T}$ donde $\Lambda$ es diagonal.

0 votos

¿Se está perdiendo $A$ ¿en algún lugar de esa ecuación?

8 votos

Si $A$ es simétrica, tenemos $AA^* = A^2 = A^*A$ así que $A$ es normal. La afirmación se deduce entonces directamente del teorema espectral. Así que basta con ir a leer cualquier demostración del teorema espectral, hay muchas copias disponibles en Internet.

80 votos

La afirmación es imprecisa: los vectores propios correspondientes a valores propios distintos de una matriz simétrica deben ser ortogonales entre sí. Los vectores propios correspondientes al mismo valor propio no tienen por qué ser ortogonales entre sí. Sin embargo, como cada subespacio tiene una base ortonormal, se pueden encontrar bases ortonormales para cada eigenespacio, por lo que se puede encontrar una base ortonormal de los vectores propios.

351voto

Lorin Hochstein Puntos 11816

Para cualquier matriz real $A$ y cualquier vector $\mathbf{x}$ y $\mathbf{y}$ tenemos $$\langle A\mathbf{x},\mathbf{y}\rangle = \langle\mathbf{x},A^T\mathbf{y}\rangle.$$ Supongamos ahora que $A$ es simétrico, y $\mathbf{x}$ y $\mathbf{y}$ son vectores propios de $A$ correspondientes a valores propios distintos $\lambda$ y $\mu$ . Entonces $$\lambda\langle\mathbf{x},\mathbf{y}\rangle = \langle\lambda\mathbf{x},\mathbf{y}\rangle = \langle A\mathbf{x},\mathbf{y}\rangle = \langle\mathbf{x},A^T\mathbf{y}\rangle = \langle\mathbf{x},A\mathbf{y}\rangle = \langle\mathbf{x},\mu\mathbf{y}\rangle = \mu\langle\mathbf{x},\mathbf{y}\rangle.$$ Por lo tanto, $(\lambda-\mu)\langle\mathbf{x},\mathbf{y}\rangle = 0$ . Desde $\lambda-\mu\neq 0$ entonces $\langle\mathbf{x},\mathbf{y}\rangle = 0$ es decir, $\mathbf{x}\perp\mathbf{y}$ .

Ahora encuentre una base ortonormal para cada eigespacio; como los eigespacios son mutuamente ortogonales, estos vectores juntos dan un subconjunto ortonormal de $\mathbb{R}^n$ . Por último, como las matrices simétricas son diagonalizables, este conjunto será una base (basta con contar las dimensiones). Ahora se obtiene el resultado deseado.

14 votos

Esta respuesta, aunque intuitivamente satisfactoria, supone que $A$ tiene el máximo número de vectores propios, es decir, no tiene vectores propios generalizados. Para una prueba más general ver mi respuesta.

12 votos

@level1807 No "supone" nada: cualquier la matriz simétrica cuadrada es diagonalizable $\; \iff\;$ existe una base de vectores propios de la matriz para el espacio en el que estamos trabajando, y así no es necesario preocuparse por los vectores propios generalizados.

1 votos

@AntoineNemesioParras OP pidió una prueba de la diagonal de la forma de Jordan de $A$ También.

48voto

level1807 Puntos 445

Dado que ser simétrico es la propiedad de un operador, no sólo de su matriz asociada, permítanme utilizar $\mathcal{A}$ para el operador lineal cuya matriz asociada en la base estándar es $A$ . Arturo y Will demostraron que un operador simétrico real $\mathcal{A}$ tiene valores propios reales (por tanto, vectores propios reales) y los vectores propios correspondientes a diferentes valores propios son ortogonales. Una pregunta sigue en pie: ¿cómo sabemos que no hay vectores propios generalizados de rango superior a 1?

Lo demostramos por inducción. Supongamos que $\lambda_1$ es un valor propio de $A$ y existe al menos un vector propio $\boldsymbol{v}_1$ tal que $A\boldsymbol{v}_1=\lambda_1 \boldsymbol{v}_1$ . Elija una base ortonormal $\boldsymbol{e}_i$ para que $\boldsymbol{e}_1=\boldsymbol{v}_1$ . El cambio de base se representa mediante una matriz ortogonal $V$ . En esta nueva base la matriz asociada a $\mathcal{A}$ es $$A_1=V^TAV.$$ Es fácil comprobar que $\left(A_1\right)_{11}=\lambda_1$ y el resto de los números $\left(A_1\right)_{1i}$ y $\left(A_1\right)_{i1}$ son cero. En otras palabras, $A_1$ se ve así: $$\left( \begin{array}{c|ccc} \lambda_1 & \\ \hline & & \\ & & B_1 & \\ & & \end{array} \right)$$ Así, el operador $\mathcal{A}$ se descompone en una suma directa de dos operadores: $\lambda_1$ en el subespacio $\mathcal{L}\left(\boldsymbol{v}_1\right)$ ( $\mathcal{L}$ significa tramo lineal) y un operador simétrico $\mathcal{A}_1=\mathcal{A}\mid_{\mathcal{L}\left(\boldsymbol{v}_1\right)^{\bot}}$ cuyo asociado $(n-1)\times (n-1)$ matriz es $B_1=\left(A_1\right)_{i > 1,j > 1}$ . $B_1$ es simétrica, por lo que tiene un vector propio $\boldsymbol{v}_2$ que tiene que ser ortogonal a $\boldsymbol{v}_1$ y se aplica el mismo procedimiento: volver a cambiar la base para que $\boldsymbol{e}_1=\boldsymbol{v}_1$ y $\boldsymbol{e}_2=\boldsymbol{v}_2$ y considerar $\mathcal{A}_2=\mathcal{A}\mid_{\mathcal{L}\left(\boldsymbol{v}_1,\boldsymbol{v}_2\right)^{\bot}}$ etc. Después de $n$ pasos obtendremos una matriz diagonal $A_n$ .

Hay una prueba un poco más elegante que no implica las matrices asociadas: dejemos que $\boldsymbol{v}_1$ sea un vector propio de $\mathcal{A}$ y $\boldsymbol{v}$ sea cualquier vector tal que $\boldsymbol{v}_1\bot \boldsymbol{v}$ . Entonces $$\left(\mathcal{A}\boldsymbol{v},\boldsymbol{v}_1\right)=\left(\boldsymbol{v},\mathcal{A}\boldsymbol{v}_1\right)=\lambda_1\left(\boldsymbol{v},\boldsymbol{v}_1\right)=0.$$ Esto significa que la restricción $\mathcal{A}_1=\mathcal{A}\mid_{\mathcal{L}\left(\boldsymbol{v}_1\right)^{\bot}}$ es un operador de rango $n-1$ que mapea ${\mathcal{L}\left(\boldsymbol{v}_1\right)^{\bot}}$ en sí mismo. $\mathcal{A}_1$ es simétrica por razones obvias y por lo tanto tiene un vector propio $\boldsymbol{v}_2$ que será ortogonal a $\boldsymbol{v}_1$ .

31voto

Stephan Aßmus Puntos 16

Parece que quiere escribir los vectores como filas, por lo que su multiplicación preferida estará en el lado izquierdo, como en $v \mapsto v A.$

El producto punto ordinario es entonces $ v \cdot w = v w^T = w v^T = w \cdot v.$ Tenga en cuenta que $v w^T$ es un número, o una matriz de 1 por 1, y es igual a su transposición.

Del mismo modo, $v A \cdot w = v A w^T.$ Sin embargo, $v A w^T$ es de nuevo una matriz de 1 por 1 y es igual a su transposición, y $A^T = A,$ por lo que obtenemos $$ v A \cdot w = v A w^T = (v A w^T)^T = (w^T)^T A^T v^T = w A v^T = w A \cdot v$$

Primero suponga $v,w$ son vectores propios con valores propios distintos $\lambda, \mu.$ Tenemos $$ v A \cdot w = \lambda v \cdot w = w A \cdot v = \mu w \cdot v.$$ O, $\lambda v \cdot w = \mu v \cdot w,$ finalmente $$ (\lambda - \mu) v \cdot w = 0.$$ Por tanto, los vectores propios con valores propios distintos son ortogonales.

Es posible que un valor propio tenga una multiplicidad mayor. Sin embargo, para un valor propio fijo $\lambda,$ el conjunto de vectores $v$ para lo cual $ v A = \lambda v$ es un subespacio, de dimensión completa (lo que significa que la forma de Jacobi no tiene elementos fuera de diagonal), y podemos simplemente elegir una base ortonormal para este subespacio. Eligiendo, de este modo, que todos los vectores base sean de longitud 1 y ortogonales, obtenemos una base ortonormal de valores propios de $A.$ Escríbelos como filas de una matriz $P,$ obtenemos $P A P^T = \Lambda.$

El único aspecto difícil aquí es el siguiente: si un valor propio tiene multiplicidad algebraica mayor que uno, es decir, el polinomio característico tiene un factor de $(x-\lambda)^k$ para algunos $k \geq 2,$ ¿cómo puedo estar seguro de que la multiplicidad geométrica es también $k?$ Es decir, con $A$ simétrico, ¿cómo sé que $$ v (A - \lambda I)^k = 0 \; \; \Rightarrow \; \; v (A - \lambda I) = 0?$$ Trabajando en ello. Parece que esto es, en el fondo, una inducción sobre $k,$ y ocupa muchas páginas. Dame algo de tiempo.

Muy bien, esto funciona. Una inducción sobre la dimensión muestra que toda matriz es ortogonalmente similar a una matriz triangular superior, con los valores propios en la diagonal (el enunciado preciso es unitario similar). ¿Cómo sabemos que los valores propios son reales? Tenemos un valor propio $\lambda$ con un vector propio $v,$ quizás ambos con entradas complejas. Como es tradicional, para un vector o una matriz se define $v^\ast = \bar{v}^T$ y $A^\ast = \bar{A}^T.$ Es fácil ver que $v v^\ast$ es un número real positivo a menos que $v = 0.$ En cualquier caso $A^\ast = A.$ Por lo tanto, teniendo en cuenta $v A = \lambda v,$ $$ ( v A v^\ast)^\ast = (v^\ast)^\ast A^\ast v^\ast = v A v^\ast.$$ Como resultado, el número complejo $v A v^\ast$ es en realidad un número real. Al mismo tiempo, $v A v^\ast = \lambda v v^\ast,$ y como ambos $v A v^\ast$ y $v v^\ast$ son números reales, este último distinto de cero, se deduce que $\lambda$ es real.

Juntando todo esto, obtenemos que cada matriz real con valores característicos reales es ortogonal similar a una matriz real triangular superior. Sin embargo, como $A$ es simétrica, esta matriz triangular superior es en realidad diagonal.

25voto

BGa Puntos 51

Supongamos que $x$ es un vector propio de $A$ correspondiente al valor propio $\lambda_1$ y $y$ un vector propio de $A$ correspondiente al valor propio $\lambda_2$ con $\lambda_1 \neq \lambda_2$ .

$Ax=\lambda_1x \\ Ay=\lambda_2y$

Después de tener en cuenta que A es simétrico ( $A=A^*$ ):

$y^{\intercal}Ax=\lambda_1y^{\intercal}x \\ x^{\intercal}A^{\intercal}y=\lambda_2x^{\intercal}y$

Ahora resta la segunda ecuación de la primera y utiliza la conmutatividad del producto escalar:

$y^{\intercal}Ax-x^{\intercal}A^{\intercal}y=\lambda_1y^{\intercal}x - \lambda_2x^{\intercal}y \\ 0 = (\lambda_1 - \lambda_2)y^{\intercal}x$

Por lo tanto, $x$ y $y$ son ortogonales.

0 votos

¿Por qué las respuestas en Math SO no son más como ésta, sencillas y legibles, utilizando notación comúnmente aceptada en lugar de formulaciones esotéricas?

3voto

Gopi Puntos 15

¿Qué tal si dejamos $A$ sea simétrica, entonces existe una matriz $D$ tal que $A=QDQ^T$ tomando la transposición de $A$ , a saber

$$\left(A\right)^T = \left(QDQ^T\right)^T $$ $$A^T = \left(Q^T\right)^TD^TQ^T$$ $$A^T = QDQ^T$$

así $A^T = A$ si y sólo si $A$ es simétrica.

Cabe destacar que $D^T = D$ desde $D$ es diagonal y $Q$ es la matriz de vectores propios normados de $A$ Por lo tanto $Q^T = Q^{-1}$

9 votos

Esto resuelve la dirección equivocada del problema.

2 votos

$A^t = A$ está relacionado con los vectores propios ¿cómo?

1 votos

Cuando se empieza con $A=A^T$ y la eigendecomposición se escribe como $A=QDQ^{-1}$ entonces la transposición de esto da como resultado $A^T=\left(Q^{-1}\right)^TDQ^T$ pero tiene que ser igual a la descomposición inicial, lo que sólo ocurrirá si $Q^{-1}=Q^T$ que es la definición de una matriz ortogonal.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X