¿Cómo puedo probar que si he a n vectores propios de diferentes valores propios, todos ellos son linealmente independientes?
Respuestas
¿Demasiados anuncios?Me voy a hacer con dos vectores. Yo voy a dejar de hacerlo en general.
Supongamos v1 v2 corresponden a distintos valores propios λ1λ2, respectivamente.
Tomar una combinación lineal que es igual a 0, α1v1+α2v2=0. Tenemos que mostrar que α1=α2=0.
La aplicación de T a ambos lados, obtenemos 0=T(0)=T(α1v1+α2v2)=α1λ1v1+α2λ2v2. Ahora, en cambio, se multiplica la ecuación original por λ1: 0=λ1α1v1+λ1α2v2. Ahora tome las dos ecuaciones, 0=α1λ1v1+α2λ2v20=α1λ1v1+α2λ1v2 y tomando la diferencia, obtenemos: 0=0v1+α2(λ2−λ1)v2=α2(λ2−λ1)v2.
Desde λ2−λ1≠0, y desde v2≠0 (debido a v2 es un autovector), a continuación,α2=0. El uso de este en el original combinación lineal 0=α1v1+α2v2, llegamos a la conclusión de que α1=0 (desde v1≠0).
Por lo v1 v2 son linealmente independientes.
Ahora intenta el uso de la inducción en n para el caso general.
Hey creo que hay una mancha de la manera de hacer esto sin la inducción. Supongamos que T es una transformación lineal de un espacio vectorial V y v1,…,vn∈V son vectores propios de a T con los correspondientes autovalores λ1,…,λn∈F (F el campo de escalares). Queremos mostrar que, si ∑ni=1civi=0, donde los coeficientes ciF, entonces necesariamente cada una de las ci es cero.
Por simplicidad, solo voy a explicar por qué los c1=0. Considere el polinomio p1(x)∈F[x]p1(x)=(x−λ2)⋯(x−λn). Tenga en cuenta que el x−λ1 término "falta" aquí. Ahora, desde cada una de las vi es un autovector de a T, tenemos
\begin{align*}
p_1(T) v_i = p_1(\lambda_i) v_i &&
\text{ where} && p_1(\lambda_i) = \begin{cases}
0 & \text{ if } i \neq 1 \\
p_1(\lambda_1) \neq 0 & \text{ if } i = 1
\end{casos}.
\end{align*}
Por lo tanto, la aplicación de p1(T) a la suma de ∑ni=1civi=0, obtenemos p1(λ1)c1v1=0 lo que implica c1=0, ya que el p1(λ1)≠0v1≠0.