5 votos

Mostrar que una matriz no simétrica tiene vectores propios no ortogonales

Estoy luchando con un problema de Métodos Matemáticos en las Ciencias Físicas de Boas. La pregunta es, para una matriz de 2x2 M s.t. M es real, no simétrica, con valores propios reales y no iguales, demostrar que los vectores propios de M no son ortogonales.

He intentado manipular MC = CD en notación de Einstein (C, una matriz que diagonaliza M y D, la matriz de valores propios) con poca suerte. También he intentado manipular elementos arbitrarios de M*C y C*D para obtener una expresión para el producto interno de los vectores propios, pero no encuentro ninguna relación que obligue al producto punto a ser distinto de cero cuando los elementos no diagonales de M no son iguales.

Cualquier sugerencia para un mejor enfoque sería apreciada. Ya he entregado la tarea, pero esta pregunta me sigue molestando.

7voto

Por contradicción si hay dos vectores propios ortogonales entonces hay una matriz de cambio $C$ que es una matriz ortogonal, es decir $C^{-1}=C^t$ y luego $$M=CDC^t$$ es una matriz simétrica. Contradicción.

2voto

Greg Case Puntos 10300

Si $M$ admite vectores propios ortogonales, podemos además suponer que los vectores propios tienen norma $1$ . Sea $A$ sea la matriz cuyas columnas son estos dos vectores propios. Entonces $A$ es ortogonal, es decir, $A^{-1}=A^T$ . Además, como los vectores en $A$ son vectores propios de $M$ , $MA=AD$ , donde $D$ es la matriz diagonal cuyas entradas a lo largo de la diagonal son los valores propios de $M$ . Esto significa que $$ M=ADA^{-1}=ADA^{T}. $$ Utilizando esta representación, está claro que $M=M^T$ Es decir, $M$ es simétrica, en contra de la suposición.

1voto

Rob Dickerson Puntos 758

Dejemos que $V$ sea la matriz cuyas columnas son los vectores propios de $M$ .

Si $M$ tiene un conjunto completo de vectores propios linealmente independientes (lo cual no siempre es cierto para las matrices reales no simétricas, pero es uno de los supuestos de su problema) entonces cualquier vector $w$ puede descomponerse en una combinación lineal $\alpha_1 v_1 + \alpha_2 v_2$ de los dos vectores propios. Encontrar las alfas equivale a resolver el sistema lineal $$V\alpha = w.$$

Entonces $$Mw = \alpha_1Mv_1 + \alpha_2 Mv_2 = \alpha_1 \lambda_1 v_1 + \alpha_2 \lambda_2 v_2 = VD\alpha$$ donde $D = \left[\begin{array}{cc}\lambda_1 & 0\\0 &\lambda_2\end{array}\right]$ . Ponerlo todo junto, $$Mw = VDV^{-1}w$$ para cada vector $w$ Así que $M = VDV^{-1}$ . Ahora bien, si los vectores propios son ortogonales y de longitud unitaria (esto último puede suponerse sin pérdida de generalidad), $V^{-1} = V^T$ y $M=VDV^T$ . El lado derecho es simétrico, por lo que el lado izquierdo también debe serlo, una contradicción.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X