Digamos que tienes 2 vectores en el mismo espacio propio y aplicas GS para obtener dos vectores ortogonales. ¿Por qué siguen siendo autovectores? (Suponiendo que la matriz en cuestión es normal)
Respuestas
¿Demasiados anuncios?El procedimiento de Gram-Schmidt utiliza dos operaciones: la multiplicación de un vector por un escalar y la adición de vectores. Por lo tanto, a partir de vectores en un espacio vectorial obtenemos combinaciones lineales de estos vectores, y una combinación lineal de vectores es un vector en el mismo espacio vectorial.
El teorema de Gram-Schmidt nos dice que para un conjunto linealmente independiente $\{v_1,\ldots v_n\}$ en el espacio de producto interno $V$, existe un conjunto ortonormal $\{e_1,\ldots,e_n\}$ tal que
$$\operatorname{span}\{v_1,\ldots, v_i\} = \operatorname{span}\{e_1,\ldots, e_i\},\ i = 1,\ldots, n.$$
Sea $A$ un operador lineal en $V$ con eigenvalor $\lambda$. Denotemos $V_\lambda$ al conjunto de todos los eigenvectores de $\lambda$, es decir, $V_\lambda = \{ v\in V\,\mid\, Av = \lambda v\}$. Afirmo que $V_\lambda$ es un subespacio de $V$. Para probar esto, es suficiente verificar que $v,w\in V_\lambda \implies \alpha v + \beta w \in V_\lambda$ para todos los escalares $\alpha, \beta$:
$$A(\alpha v + \beta w) = \alpha Av + \beta Aw = \alpha \lambda v + \beta \lambda w = \lambda (\alpha v + \beta w),$$
por lo tanto, la combinación lineal de eigenvectores es nuevamente un eigenvector, es decir, $V_\lambda$ es un subespacio de $V$.
Ahora, si eliges $\{v,w\}$ linealmente independiente en algún espacio propio $V_\lambda$ y aplicas Gram-Schmidt, obtendrás vectores ortonormales $\{e,f\}$ y tenemos $$e,f\in\operatorname{span}\{e,f\} = \operatorname{span}\{v,w\}\subseteq V_\lambda$$ y así, $e,f$ son nuevamente eigenvectores.