Parece que quiere escribir los vectores como filas, por lo que su multiplicación preferida estará en el lado izquierdo, como en $v \mapsto v A.$
El producto punto ordinario es entonces $ v \cdot w = v w^T = w v^T = w \cdot v.$ Tenga en cuenta que $v w^T$ es un número, o una matriz de 1 por 1, y es igual a su transposición.
Del mismo modo, $v A \cdot w = v A w^T.$ Sin embargo, $v A w^T$ es de nuevo una matriz de 1 por 1 y es igual a su transposición, y $A^T = A,$ por lo que obtenemos $$ v A \cdot w = v A w^T = (v A w^T)^T = (w^T)^T A^T v^T = w A v^T = w A \cdot v$$
Primero suponga $v,w$ son vectores propios con valores propios distintos $\lambda, \mu.$ Tenemos $$ v A \cdot w = \lambda v \cdot w = w A \cdot v = \mu w \cdot v.$$ O, $\lambda v \cdot w = \mu v \cdot w,$ finalmente $$ (\lambda - \mu) v \cdot w = 0.$$ Por tanto, los vectores propios con valores propios distintos son ortogonales.
Es posible que un valor propio tenga una multiplicidad mayor. Sin embargo, para un valor propio fijo $\lambda,$ el conjunto de vectores $v$ para lo cual $ v A = \lambda v$ es un subespacio, de dimensión completa (lo que significa que la forma de Jacobi no tiene elementos fuera de diagonal), y podemos simplemente elegir una base ortonormal para este subespacio. Eligiendo, de este modo, que todos los vectores base sean de longitud 1 y ortogonales, obtenemos una base ortonormal de valores propios de $A.$ Escríbelos como filas de una matriz $P,$ obtenemos $P A P^T = \Lambda.$
El único aspecto difícil aquí es el siguiente: si un valor propio tiene multiplicidad algebraica mayor que uno, es decir, el polinomio característico tiene un factor de $(x-\lambda)^k$ para algunos $k \geq 2,$ ¿cómo puedo estar seguro de que la multiplicidad geométrica es también $k?$ Es decir, con $A$ simétrico, ¿cómo sé que $$ v (A - \lambda I)^k = 0 \; \; \Rightarrow \; \; v (A - \lambda I) = 0?$$ Trabajando en ello. Parece que esto es, en el fondo, una inducción sobre $k,$ y ocupa muchas páginas. Dame algo de tiempo.
Muy bien, esto funciona. Una inducción sobre la dimensión muestra que toda matriz es ortogonalmente similar a una matriz triangular superior, con los valores propios en la diagonal (el enunciado preciso es unitario similar). ¿Cómo sabemos que los valores propios son reales? Tenemos un valor propio $\lambda$ con un vector propio $v,$ quizás ambos con entradas complejas. Como es tradicional, para un vector o una matriz se define $v^\ast = \bar{v}^T$ y $A^\ast = \bar{A}^T.$ Es fácil ver que $v v^\ast$ es un número real positivo a menos que $v = 0.$ En cualquier caso $A^\ast = A.$ Por lo tanto, teniendo en cuenta $v A = \lambda v,$ $$ ( v A v^\ast)^\ast = (v^\ast)^\ast A^\ast v^\ast = v A v^\ast.$$ Como resultado, el número complejo $v A v^\ast$ es en realidad un número real. Al mismo tiempo, $v A v^\ast = \lambda v v^\ast,$ y como ambos $v A v^\ast$ y $v v^\ast$ son números reales, este último distinto de cero, se deduce que $\lambda$ es real.
Juntando todo esto, obtenemos que cada matriz real con valores característicos reales es ortogonal similar a una matriz real triangular superior. Sin embargo, como $A$ es simétrica, esta matriz triangular superior es en realidad diagonal.
0 votos
¿Se está perdiendo $A$ ¿en algún lugar de esa ecuación?
8 votos
Si $A$ es simétrica, tenemos $AA^* = A^2 = A^*A$ así que $A$ es normal. La afirmación se deduce entonces directamente del teorema espectral. Así que basta con ir a leer cualquier demostración del teorema espectral, hay muchas copias disponibles en Internet.
80 votos
La afirmación es imprecisa: los vectores propios correspondientes a valores propios distintos de una matriz simétrica deben ser ortogonales entre sí. Los vectores propios correspondientes al mismo valor propio no tienen por qué ser ortogonales entre sí. Sin embargo, como cada subespacio tiene una base ortonormal, se pueden encontrar bases ortonormales para cada eigenespacio, por lo que se puede encontrar una base ortonormal de los vectores propios.
0 votos
@ArturoMagidin Esa fue una parte de mi confusión: Sabía que tenía que ser cierto para valores propios distintos, pero no podía demostrar que fuera cierto en caso contrario, pero ¿cómo encontramos $Q\Lambda Q^T = A$ ?
4 votos
@Phonon: Es falso por otra parte, pero se puede encontrar una base para el eigespacio formada por eigenvectores ortogonales: basta con tomar cualquier base para el eigespacio, y aplicar la Gram-Schmid. Una vez que se tiene una base de vectores propios para todos los $\mathbb{R}^n$ , $Q$ es la matriz cuyas columnas son los elementos de la base.
2 votos
@Phonon: Me permito añadir: si ya sabías que era cierto para valores propios distintos, ¿por qué no lo dijiste en tu pregunta? Me habría ahorrado el trabajo de escribirlo, y entonces habría quedado claro cuál era tu duda: podrías haber obtenido una respuesta que no recondujera cosas que ya sabías.
0 votos
@ArturoMagidin, Lo siento, probablemente se me escapa algo tonto y obvio, pero si tenemos matriz $Q$ y aplicarle Gram-Schmidt para obtener $\tilde{Q}$ ¿Cómo sabemos que $Q\Lambda Q^{-1} = \tilde{Q} \tilde{\Lambda} \tilde{Q}^{-1}$ donde $\tilde{\Lambda}$ ¿sigue siendo diagonal?
0 votos
@ArturoMagidin Sí, tienes razón. Creo que puedo intentar averiguar el resto por mi cuenta. Gracias.
2 votos
@Phonom. Dos formas diferentes: primero, puedes no computa $Q$ hasta después de tienes una base ortonormal de vectores propios. Segunda forma: Trabajar la otros manera: Tienes $\Lambda = Q^{-1}AQ$ . Ahora hay que ortonormalizar el columnas de $Q$ multiplicando a la derecha por matrices elementales, y ajustar la inversa multiplicando por la inversa de las matrices elementales. Así que en cada paso se obtiene $E^{-1}\Lambda E = E^{-1}Q^{-1}AQE$ . Pero $E^{-1}\Lambda E$ es diagonal, por lo que se obtiene $\Lambda' = Q'AQ'^{-1}$ . Espuma, enjuague, repita hasta que $Q^{-1}$ tiene columnas ortonormales.
0 votos
math.stackexchange.com/questions/393149/
0 votos
¿Cómo se llama A^*? ¿Conjugado matemático?