45 votos

La transformación diagonalizable restringida a un subespacio invariante es diagonalizable

Supongamos que $V$ es un espacio vectorial sobre $\mathbb{C}$ y $A$ es una transformación lineal en $V$ que es diagonalizable. Es decir, existe una base de $V$ formado por los vectores propios de $A$ . Si $W\subseteq V$ es un subespacio invariante de $A$ (así $A(W)\subseteq W$ ), demuestre que $A|_W$ también es diagonalizable.

Intenté suponer $A$ tiene valores propios distintos $\lambda_1,\ldots,\lambda_m$ con $V_i=\{v\in V: Av=\lambda_i v\}$ . Entonces podemos escribir $V=V_1\oplus\cdots\oplus V_m,$ pero no estoy seguro de que sea cierto que

$$W=(W\cap V_1)\oplus\cdots\oplus (W\cap V_m),.$$

Si es cierto, entonces hemos terminado, pero puede estar equivocado.

0 votos

@NGY: Desde $W$ es de hecho diagonalizable, y cualquier vector propio de $A|_W$ es necesariamente un vector propio de $A$ Sí, es cierto: ya sabes $W=W_1\oplus \cdots \oplus W_m$ (algunas de ellas posiblemente triviales). Encontrar una base de vectores propios para cada $W_i$ se extienden a una base de vectores propios de la correspondiente $V_i$ . Pero creo que probarlo ex nihilo será difícil.

0 votos

El resultado deseado también puede expresarse como: que $A$ sea un operador lineal sobre un espacio vectorial de dimensión finita (sobre cualquier campo). Si $A$ es diagonalizable, entonces cada subespacio invariante es una suma directa de subespacios invariantes unidimensionales. Sin embargo, como dice Arturo, no parece sencillo demostrar esto directamente. Su bonita respuesta utilizando formas canónicas parece la mejor manera de hacerlo.

62voto

mahemoff Puntos 4879

Este teorema es cierto para cualquier $V$ (sobre un campo arbitrario $\mathbb{F}$ ).

Podemos demostrar lo siguiente

Lema. Si $v_1 + v_2 + \cdots + v_k \in W$ y cada uno de los $v_i$ son vectores propios de $A$ correspondientes a valores propios distintos, entonces cada uno de los $v_i$ mienten en $W$ .

Prueba. Proceda por inducción. Si $k = 1$ no hay nada que demostrar. Por lo demás, dejemos $w = v_1 + \cdots + v_k$ y $\lambda_i$ sea el valor propio correspondiente a $v_i$ . Entonces:

$$Aw - \lambda_1w = (\lambda_2 - \lambda_1)v_2 + \cdots + (\lambda_k - \lambda_1)v_k \in W.$$

Por hipótesis de inducción, $(\lambda_i - \lambda_1)v_i \in W$ y como los valores propios $\lambda_i$ son distintos, $v_i \in W$ para $2 \leq i \leq k$ entonces también tenemos $v_1 \in W$ . $\quad \square$

Ahora cada $w \in W$ puede escribirse como una suma finita de vectores propios no nulos de $A$ con valores propios distintos, y por el lema estos vectores propios se encuentran en $W$ . Entonces tenemos $W = \bigoplus_{\lambda \in F}(W \cap V_{\lambda})$ como se desee (donde $V_{\lambda} = \{v \in V\mid Av = \lambda v\}$ ).

40voto

Lorin Hochstein Puntos 11816

Teorema. Una transformación lineal es diagonalizable si y sólo si su polinomio mínimo se divide y no tiene factores repetidos.

Prueba. Esto se deduce al examinar la forma canónica de Jordan, ya que la mayor potencia de $(x-\lambda)$ que divide el polinomio mínimo es igual al tamaño del mayor bloque de correspondiente a $\lambda$ de la forma canónica de Jordan de la transformación lineal. (Utiliza el hecho de que cada factor irreducible del polinomio característico divide al polinomio mínimo, y que el polinomio característico debe dividirse para que la transformación lineal sea diagonalizable para argumentar que puedes restringirte a las transformaciones lineales con formas canónicas de Jordan). QED

Teorema. Dejemos que $A$ sea una transformación lineal sobre $V$ y que $W\subseteq V$ ser un $A$ -subespacio invariable. Entonces el polinomio mínimo de la restricción de $A$ a $W$ , $A|_{W}$ divide el polinomio mínimo de $A$ .

Prueba. Dejemos que $B=A|_{W}$ y que $\mu(x)$ sea el polinomio mínimo de $A$ . Desde $\mu(A)=0$ en todos los $V$ La restricción de $\mu(A)$ a $W$ es $0$ Pero $\mu(A)|_{W} = \mu(A|_{W}) = \mu(B)$ . Desde $\mu(B)=0$ entonces el polinomio mínimo de $B$ divide $\mu(x)$ . QED

Corolario. Si $A$ es diagonalizable, y $W$ es $A$ -invariante, entonces la restricción de $A$ a $W$ es diagonalizable.

Prueba. El polinomio mínimo de $A$ se divide y no tiene factores repetidos; como el polinomio mínimo de $A|_W$ divide un polinomio que se divide y no tiene factores repetidos, se deduce que él mismo no tiene factores repetidos y se divide. Por lo tanto, la restricción de $A$ a $W%$ también es diagonalizable. QED

0 votos

¿Cómo puedo ver que $\mu(A)\restriction_W=\mu(A\restriction_W)$ ? Además, si $\nu(x)$ es el polinomio mínimo de $B$ entonces el segundo teorema afirma que $\mu(x)=\nu(x)f(x)$ para algún polinomio $f(x)$ . Pero, ¿cómo se deduce de la prueba?

5 votos

@usuario437309: Estás respondiendo a un post de hace casi 7 años... las posibilidades de recordar rápidamente lo que uno pensaba en ese momento son escasas. La razón por la que $\mu(x) = \nu(x)f(x)$ se deduce porque el polinomio mínimo de $B$ divide cualquier polinomio que desaparece en $B$ (utilizando el algoritmo de la división). Se trata de un estándar propiedad de los polinomios mínimos. La prueba muestra que $\mu(B)=0$ Por lo tanto $\mu(x)$ se desvanece en $B$ por lo que debe ser un múltiplo del polinomio mínimo. ¿Cuál es el problema?

3 votos

@user437309: $\mu(A) = A^k + a_{k-1}A^{k-1} + \cdots + a_1A + a_0I$ . Restringiendo la suma a $W$ es lo mismo que añadir las restricciones; y restringir $A^k$ es lo mismo que restringir $A$ y elevar la restricción a la $k$ de la potencia.

18voto

codemac Puntos 689

He aquí una pequeña variante de la muy bonita argumentación de Zorn. Usaré la notación de Zorn:

Dejemos que $w=v_1 + v_2 + \cdots + v_k$ estar en $W$ Cada uno de ellos $v_i$ siendo un $\lambda_i$ -eigenvector de $A$ y el $\lambda_i$ siendo distintos.

Basta con comprobar que cada $v_i$ está en $W$ .

Pero esto está claro ya que

$$v_i=\left(\prod_{j\neq i}\ \frac{A-\lambda_j\,I}{\lambda_i-\lambda_j}\right)(w)\quad.$$

9 votos

Muy bonito. Esta es la fórmula explícita para escribir la proyección de la suma de todos los eigenspaces sobre uno de ellos como un polinomio en $A$ utilizando la fórmula de interpolación de Lagrange que da la solución para el caso particular del teorema del resto chino que se necesita aquí (un polinomio cuya evaluación en $\lambda_i$ es $1$ y en todos los demás valores propios es $~0$ ). Añadiré la aplicación del operador a $w$ que se te olvidó.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X