3 votos

La unión de las bases de los espacios de los eigens es linealmente independiente

Planteamiento del problema: Supongamos que $V$ es un espacio vectorial y $\Phi \in \mathcal{L}(V)$ tiene valores propios distintos $\lambda_1,...,\lambda_n$ y que cada eigespacio $V_{\lambda_j}$ tiene una base $B_{\lambda_j}$ . Demostrar que $B = B_{\lambda_1} \cup ... \cup B_{\lambda_n}$ es un subconjunto linealmente independiente de $V$ .

Intento: Mi idea es hacer esto por inducción. El caso base cuando $B = B_{\lambda_1}$ parece inmediato, pero me estoy atascando en el caso inductivo.

Mi inclinación es utilizar los hechos que $\text{span}(C) \cap \text{span}(D) = \{0\} \implies C, D$ son linealmente independientes y que $V_{\lambda_j} \cap V_{\lambda_i} = \{0\}$ para $i \neq j$ para decir que $B_{\lambda_1} \cup ... \cup B_{\lambda_n}$ es linealmente independiente.

Sin embargo, con la hipótesis inductiva de que $B^\prime = B_{\lambda_1} \cup ... \cup B = B_{\lambda_{n-1}}$ es un subconjunto linealmente independiente de $V$ No se me ocurre una forma de mostrar que $\text{span}(B^\prime) \cap \text{span}(B_{\lambda_{n}}) = \{0\}$ .

¿Todo este planteamiento es erróneo o me estoy perdiendo algo?

3voto

Fimpellizieri Puntos 155

Dejemos que $B_{\lambda_i}$ tienen $n_i$ elementos: $v_{i,1}, v_{i,2}, \dots, v_{i,n_i}$ . Probemos su inducción; supongamos que hay alguna $u \in \left(B_{\lambda_1}\cup\dots\cup B_{\lambda_n}\right)\cap B_{\lambda_{n+1}}$ . Entonces existe una combinación lineal

$$\tag{1}\label{eq1}\sum_{i=1}^n\sum_{j=1}^{n_i}c_{i,j}v_{i,j}=u$$

Aplicando $\Phi$ a ambos lados obtenemos que

$$\tag{2}\label{eq2}\sum_{i=1}^n \sum_{j=1}^{n_i}\big(\lambda_i c_{i,j}\big)v_{i,j}=\lambda_{n+1}u$$

Si $\lambda_{n+1}=0$ entonces tenemos una combinación lineal en $B_{\lambda_1}\cup\dots\cup B_{\lambda_n}$ que es igual a $0$ . Además, dado que el $\lambda_i$ son todos distintos, deben ser todos distintos de cero para $i<n+1$ . Entonces se deduce de la hipótesis de inducción que el $c_{i,j}$ debe ser todo $0$ contradiciendo la suposición de que $u\neq0$ .

Ahora bien, si $\lambda_{n+1}\neq 0$ entonces podemos escribir

$$u=\sum_{i=1}^n \sum_{j=1}^{n_i}\left(\frac{\lambda_i}{\lambda_{n+1}} c_{i,j}\right)v_{i,j}.$$

Entonces, combinando las ecuaciones $\eqref{eq1}$ y $\eqref{eq2}$ obtenemos

$$0=u-u=\sum_{i=1}^n \sum_{j=1}^{n_i}\left(\frac{\lambda_i}{\lambda_{n+1}}-1\right)c_{i,j}\,v_{i,j},$$

de modo que por la hipótesis de inducción $\left(\frac{\lambda_i}{\lambda_{n+1}}-1\right)c_{i,j}=0$ para todos $i,j$ . Desde el $\lambda$ son distintos, tenemos que $\frac{\lambda_i}{\lambda_{n+1}} \neq 1$ por lo que debe ser que el $c_{i,j}$ son todos $0$ , de nuevo en contradicción con la suposición de que $u\neq0$ .

Vemos que, sea cual sea el caso, no puede haber ningún $u\in \left(B_{\lambda_1}\cup\dots\cup B_{\lambda_n}\right)\cap B_{\lambda_{n+1}}$ , por lo que el paso inductivo está completo.

1voto

kduna Puntos 36

Estoy seguro de que podrías hacer funcionar un argumento inductivo, pero hay uno no inductivo que es bastante suave.

Supongamos que tenemos una combinación lineal de los elementos de $B$ que es igual a cero. Agrupando cada conjunto de vectores de $B_{\lambda_i}$ juntos, esto es decir que hay vectores $v_1, \dots, v_n$ con $v_i \in V_{\lambda_i}$ tal que: $$ v_1 + \dots + v_n = 0. $$ Aplicando $\Phi$ a esta ecuación $k$ tiempos da: $$ \lambda_1^k v_1 + \dots + \lambda_n^k v_n = 0.$$

Esto es válido para todos los $k \in \mathbb{N}$ . La única solución posible es que $v_i = 0$ para todos $i$ (véase más abajo). Pero entonces los coeficientes de tu combinación lineal original deben ser cero (este es el caso base en tu inducción y como dijiste, es inmediato).


Para ser rigurosos en cuanto a que ese sistema no tiene soluciones no triviales. Tomar la primera $n$ ecuaciones que obtendrías aplicando $\Phi$ . Esto corresponde a la ecuación matricial:

$$ \begin{pmatrix} 1 & \dots &1 \\ \lambda_1 & \dots & \lambda_n \\ \vdots & \vdots & \vdots \\ \lambda_1^{n-1} & \dots & \lambda_n^{n-1} \end{pmatrix} \begin{pmatrix} v_1 \\ v_2 \\ \vdots \\ v_n \end{pmatrix} = 0_.$$

Esa matriz se llama Matriz Vandermonde . Su determinante es $$\prod\limits_{1 \leq i < j \leq n} (\lambda_j - \lambda_i). $$

Desde el $\lambda$ son distintos que el determinante no es cero. Por tanto, la matriz es invertible. Por lo tanto, la única solución es $v_i = 0$ para todos $i$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X