25 votos

Bloque Diagonal De La Matriz Diagonalizable

Estoy tratando de probar que:

La matriz $C = \left(\begin{smallmatrix}A& 0\\0 & B\end{smallmatrix}\right)$ es diagonalizable, si sólo si $A$ $B$ es diagonalizable.

Si $A\in\mathbb{C}^n$ $B\in\mathbb{C}^m$ es diagonalizable, entonces es fácil comprobar la $C\in\mathbb{C}^{n+m}$ es diagonalizable. Pero si supongo que $C$ es diagonalizable, entonces existe $S = [S_1, S_2, \ldots, S_{n+m}]$, $S_i\in\mathbb{C}^{m+n}$, tal que $S^{-1}CS = \mbox{diag}(\lambda_i)$ . Ahora $CS_i = \lambda_iS_i$, y si $S_i = \left(\begin{smallmatrix}x_i\\y_i\end{smallmatrix}\right)$, $x_i\in\mathbb{C}^n$ y $y_i\in\mathbb{C}^m$, luego $$Ax_i = \lambda_ix_i\quad\mbox{ and }\quad By_i = \lambda_iy_i.$$ Así que, si puedo justificar que $\{x_1,\ldots,x_{n+m}\}$ tienen exactamente $n$ lineal independiente de vectores y $\{y_1,\ldots,y_{n+m}\}$ ha $m$ lineal independiente de vectores, voy a demostrar que $A$ $B$ son diagonalizables, pero no sé cómo demostrar que? Por favor, alguien tiene una idea? Gracias de antemano.

13voto

Jim Petkus Puntos 3447

Respuesta corta: el polinomio mínimo de a $C$ es el monic lcm de la mínima polinomios de $A$$B$. Y un cuadrado de la matriz es diagonalizable si y sólo si su polinomio mínimo de divisiones (que es automático, en $\mathbb{C}$ del curso) con sólo simples raíces. En otras palabras, como señala DonAntonio: si y sólo si su polinomio mínimo es el producto de a pares distintos monic lineal de factores. Sobre el campo en consideración, por supuesto.

Ahora me voy a dar una detallada argumento sin uso explícito de un mínimo de polinomios.

Hecho: una matriz cuadrada $M$ con coeficientes en un campo de $K$ es diagonalizable si y sólo si existe un polinomio distinto de cero $p(X)\in K[X]$ que se divide $K$ con simple raíces y tal que $p(M)=0$.

Prueba: si $M$ es diagonalizable y si $\{\lambda_1,\ldots,\lambda_k\}$ es el conjunto de sus (no repetido) autovalores, a continuación, $p(X)=(X-\lambda_1)\cdots(X-\lambda_k)$ aniquila $M$. Por el contrario, si un polinomio $p(X)$ $\lambda_j$ pares distintos aniquila $M$, tenemos (por Bezout, esencialmente): $K^n=\mbox{Ker } p(M)=\bigoplus_{j=1}^k\mbox{Ker } (M-\lambda_j I_n)$. Diagonalizability sigue fácilmente. QED.

Ahora, para cada polinomio $p(X)$, usted tiene $$ p(C)=\left(\matriz{p(a)&0\\0&p(B)}\right) $$ Esto le da a usted el molesto dirección, es decir $C$ diagonalizable implica $A$ $B$ diagonalizable.

Lo contrario es más fácil. Tome $P$ $Q$ invertible tal que $PAP^{-1}$ $QBQ^{-1}$ ser diagonal. Entonces $$ R:=\left(\matriz{P&0\\0&Q}\right) $$ es invertible con $$ R^{-1}=\left(\matriz{P^{-1}&0\\0&P^{-1}}\right)\qquad \mbox{y}\qquad RCR^{-1}=\left(\matriz{PAP^{-1}&0\\0&QBQ^{-1}}\right) $$ es diagonal.

Nota: también puede hacer lo contrario con el hecho anterior. Acaba de tomar el lcm de la mínima polinomios de $A$$B$.

11voto

Chris Ballance Puntos 17329

Al $C$ es diagonalisable, tenemos $S^{-1}CS=\Lambda$, o lo que es equivalente, $CS=S\Lambda$ para algunos es invertible la matriz de $S$ y algunos matriz diagonal $\Lambda=\operatorname{diag}(\lambda_1,\ldots,\lambda_{m+n})$. Por lo tanto $$ \pmatrix{A&0\\ 0&B}\pmatrix{x_j\\ y_j}=\lambda_i\pmatrix{x_j\\ y_j} $$ donde $\pmatrix{x_j\\ y_j}$ $j$- ésima columna de a $S$. En consecuencia,$Ax_j=\lambda_jx_j$. Como $S$ es invertible, la parte superior $n$ filas de $S$, es decir, la matriz de $(x_1,x_2,\ldots,x_{m+n})$, debe tener una fila completa de rango, es decir, el rango $n$. Puesto que la fila de rango siempre es igual a la columna de rango, se deduce que el $n\times n$ submatriz $X=(x_{k_1},x_{k_2},\ldots,x_{k_n})$ es invertible para algunos $k_1,\ldots,k_n\in\{1,2,\ldots,m+n\}$. Por lo tanto la igualdad de $Ax_j=\lambda_jx_j$ implica que el $AX=XD$ donde $D=\operatorname{diag}(\lambda_{k_1},\ldots,\lambda_{k_n})$. Por lo $X^{-1}AX=D$, es decir, $A$ es diagonalisable. Por la misma razón, $B$ es diagonalisable demasiado.

Observación. Como el OP pregunta de una manera de encontrar $n$ vectores linealmente independientes entre $x_1,\ldots, x_n$, esta respuesta se dirige directamente a la OP de la pregunta. Sin embargo, en mi opinión, el preferido forma de mostrar que la $A$ $B$ son diagonalisable es emplear un mínimo de polinomios. Ver julien respuesta, por ejemplo. Lamentablemente, de pregrado cursos de álgebra lineal en la actualidad no son muy "algebraica" como ellos.

1voto

aetaur Puntos 11

Deje $Y$ $Z$ ser espacios vectoriales y deje $X = Y \oplus Z$ ser su suma directa. Deje $B$ $C$ ser transformaciones lineales de $Y$ $Z$ respectivamente y deje $X=Y \oplus Z$ la correspondiente "bloque diagonal de la transformación" de $X$. Es fácil ver que

Hecho 1: $\ker(A) = \ker(B) \oplus \ker(C)$.

Que denota la identidad de la transformación de un espacio vectorial $V$$I_V$, y observando que $I_X = I_Y \oplus I_Z$, lo que uno ve, para cualquier escalar $\lambda$,$A - \lambda I_X = (B - \lambda I_Y) \oplus (C-\lambda I_Z)$. Así, la aplicación de esta realidad, también tenemos

Hecho 2: $\ker(A - \lambda I_X) = \ker(B - \lambda I_Y) \oplus \ker(C-\lambda I_Z)$.

que dice exactamente que el subespacio propio de $A$ asociado a un escalar $\lambda$ es la suma directa de los subespacios propios correspondientes de $B$$C$.

Una transformación lineal es diagonalizeable si y sólo si sus subespacios propios añadir al espacio total. Por eso, $A$ es diagonalizeable si y sólo si

$$\bigoplus_{\lambda} \ker(A - \lambda I_X) = \left( \bigoplus_\lambda \ker(B - \lambda I_Y) \right) \oplus \left( \bigoplus_\lambda \ker(C - \lambda I_Z) \right) = X.$$

Dados los subespacios $U \subset Y$$V \subset Z$, $U \oplus V = X$ si y sólo si $U = Y$$V=Z$. Así, llegamos a la conclusión de que ese $A$ es diagonalizeable si y sólo si $B$ $C$ son diagonalizeable.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X