9 votos

Diagonalización de las restricciones de un operador lineal diagonalizable

Me di cuenta que tengo algunas dificultades para demostrar este ejercicio.

Que $T : V \rightarrow V$ ser un operador lineal en un espacio dimensional finito del vector $V$sobre un campo $F$ e invariante subespacios $U,W \subset V$ tal que $V = U \oplus W$. Mostrar que si $T$ es diagonalizable entonces $T_{|U}, T_{|W}$ es diagonalizable.

Cualquier ayuda sería mucho apreció. ¡Gracias!

8voto

GmonC Puntos 114

Hay una escuela primaria de la prueba de la afirmación más general de que la restricción de un diagonalisable lineal operador$~T$ $T$- estable subespacio $U$ es de nuevo diagonalisable (en lo finito dimensional caso), a lo largo de las líneas de mi otra respuesta. Ver también esta respuesta para una variante de la formulación.

Cualquier vector de $u\in U$ se descompone de forma exclusiva en$~V$$u=v_1+\cdots+v_k$, una suma de vectores propios para los distintos autovalores $\lambda_1,\ldots,\lambda_k$, y esto es suficiente para demostrar que los vectores propios $v_i$ mentira en$~U$. Desde $U$ $T$- estable, también es estable bajo cualquier $T-\lambda I$. Ahora para demostrar que $v_i\in U$, se aplican a la ecuación sucesivamente $T-\lambda_j I$$j\in\{1,2,\ldots,k\}\setminus\{i\}$. En cada aplicación de cada plazo $v_j$ se multiplica por un escalar, que es cero si y sólo si $T-\lambda_j I$ que se aplicaba. El resultado es que sólo un escalar distinto de cero múltiples de $v_i$ permanece, y desde que empezamos con un vector de $u$$U$, este resultado es todavía en$~U$. Después de la división por el escalar esto muestra que $v_i\in U$.

Una formulación equivalente es por inducción sobre$~k$, el número de (distinto de cero!) los vectores propios necesarios en la suma de$~u$. La partida de los casos $k\leq1$ son evidentes. De lo contrario, la aplicación de $T-\lambda_kI$ da $$ Tu-\lambda_ku=(\lambda_1-\lambda_k)v_1+(\lambda_2-\lambda_k)v_2+\cdots+(\lambda_{k-1}-\lambda_k)v_{k-1}, $$ y se puede aplicar la hipótesis de inducción para el vector $Tu-\lambda_ku\in U$ a la conclusión de que todos los términos individuales (vectores propios) en el lado derecho de la mentira en $U$. Pero, a continuación, lo hacen sin escala de la $v_1,\ldots,v_{k-1}$ (ya que todos los escalares factores son cero), y por necesidad, el plazo restante $v_k$ $u=v_1+\cdots+v_k$ debe también estar en$~U$.

4voto

GmonC Puntos 114

Si usted sabe sobre el teorema que dice que un operador lineal en un número finito de dimensiones de espacio vectorial sobre$~F$ es diagonalisable ($~F$) si y sólo si es aniquilado por algunos polinomio que puede ser descompuesto en$~K[X]$ como producto de distintos factores de grado$~1$, entonces esto es fácil. Vamos a por el teorema $P$ ser un polinomio para el diagonalisable operador$~T$ (por lo $P[T]=0$), entonces, ciertamente,$P[T|_U]=0$$P[T|_W]=0$, que por el mismo teorema muestra que $T|_U$ $T|_W$ son diagonalisable. En este alto nivel de respuesta es irrelevante que el tanto $U,W$ son dadas, y que forman una suma directa; muestra que más generalmente, la restricción de un diagonalisable operador$~T$ cualquier $T$-estable subespacio es diagonalisable.

Sin embargo, existe un más bajo nivel de razonamiento que se aplica para esta pregunta, se basa en el hecho de que las proyecciones de los factores de $T$-estable suma directa de descomposición conmuta con$~T$. Este hecho es inmediato, ya que si $v=u+w$ $u\in U$ $w\in W$ describe los componentes de$~u$, $Tv=Tu+Tw$ $Tu\in U$ $Tw\in W$ $T$- estabilidad, por lo que se describen los componentes de$~Tv$. Esto significa, en particular, que las proyecciones de $U$ $W$ de un autovector de a$~T$$~\lambda$ son de nuevo los vectores propios de a$~T$$~\lambda$ (o uno de ellos podría ser cero), como la proyección de $Av=\lambda v$ $\lambda$ veces la proyección de$~v$.

Ahora para demostrar que $T|_U$ $T|_W$ son diagonalisable, basta proyecto de cada subespacio propio$~E_\lambda$ a$~U$, y en$~W$; sus imágenes son subespacios propios de a$~\lambda$$T|_U$$T|_W$, o posiblemente el subespacio cero. Como se da eso $V=\bigoplus_\lambda E_\lambda$, las sumas de las proyecciones de los espacios de $E_\lambda$ $U$ $W$ (que las sumas son siempre directos) se llenan $U$$W$, en otras palabras $T|_U$ $T|_W$ son diagonalisable. Alternativamente, para descomponer un vector $u\in U$ como una suma de vectores propios de a $T|_U$, sólo descomponer en una suma de vectores propios de a$~T$, y el proyecto de los sumandos en$~U$ (en paralelo a$~W$), que las proyecciones claramente agregar a a$~u$ (y, de hecho, es fácil ver que las proyecciones no hizo nada; los vectores propios de a$~T$ ya estaban dentro de$~U$).

Una última advertencia: no tome distancia a partir de esto que las proyecciones de a $T$-estable subespacios siempre conmuta con$~T$, o enviar subespacios propios para subespacios propios de la restricción. Eso no es cierto en general: sólo se mantiene cuando la proyección es a lo largo de otro $T$-estable subespacio.

3voto

Leon Katsnelson Puntos 274

Aquí es un enfoque alternativo si $\mathbb{F} = \mathbb{C}$.

Primera nota de que $T$ tiene una base de vectores propios $v_k$.

A continuación, $v_k = u_k+w_k$ donde $u_k \in U, w_k \in W$. Tenemos $Tv_k = Tu_k + T w_k = \lambda_k v_k = \lambda_k u_k + \lambda_k w_k$. Desde $U,W$ $T$- invariante y $V = U \oplus W$, tenemos $Tu_k = \lambda_k u_k$ $Tw_k = \lambda_k w_k$ (nota de la $u_k$ o de la $w_k$ puede ser cero).

Además, puesto que el $v_k$ span $V$, vemos que el $u_k$ span $U$ e las $w_k$ span $W$. Elegir un subconjunto $u_{n_i}$ que constituye una base para $U$, y del mismo modo, un subconjunto $w_{m_j}$ que forman una base para $W$.

A continuación, $T_{|U}$ es la diagonal en la base $u_{n_i}$, e $T_{|W}$ es la diagonal en la base $w_{m_i}$.

2voto

Rob Puntos 123

$\;T\;$ es diagonalizable (sobre su definición campo, todo el tiempo de ahora en adelante)) iff su polinomio mínimo es un producto de factores lineales diferentes.

Si nos indica que $\;m_U(x)\;,\;\;m_V(x)\;$ los polinomios mínimo de $\;T\;$ en $\;U,V\;$ o, desde $\;m_U(T)=0\;$, obtenemos que $\;m_V(x)\mid m_U(x)\implies\;$ $\;m_U(x)\;$ es un producto de factores lineales diferentes también y hemos terminado

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X