15 votos

¿Por qué la diagonalización de una matriz B con la base de una matriz conmutada A da una matriz diagonal en bloque?

Estoy tratando de entender una prueba relativa a las matrices conmutativas y a la diagonalización simultánea de éstas.

Parece ser un resultado bien conocido que cuando se toman los vectores propios de $A$ como base y diagonalizar $B$ con ella entonces se obtiene una matriz diagonal de bloques:

$$B= \begin{pmatrix} B_{1} & 0 & \cdots & 0 \\ 0 & B_{2} & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & B_{m} \end{pmatrix},$$

donde cada $B_{i}$ es un $m_{g}(\lambda_{i}) \times m_{g}(\lambda_{i})$ bloque ( $m_{g}(\lambda_{i})$ siendo la multiplicidad geométrica de $\lambda_{i}$ ).

Mi pregunta
¿Por qué? He calculado un ejemplo y, he aquí, que realmente funciona :-) Pero no entiendo cómo funciona tan limpiamente.

¿Podría explicarme este resultado de forma intuitiva y paso a paso?

0 votos

"diagonalizar B con ella" no parece ser lo que quieres decir, ¿verdad?

3 votos

Por lo tanto, estamos asumiendo que $A$ y $B$ son ambos diagonalizables, y que $AB=BA$ . Entonces se toma una base $\beta$ de vectores propios de $A$ (que aparece con todos los vectores correspondientes al mismo valor propio juntos), y se mira la matriz de coordenadas de $B$ en relación con $\beta$ y te preguntas por qué esta matriz es una matriz diagonal de bloques. ¿Es esto correcto?

0 votos

@Arturo: ahora estoy de vuelta - ¡sí, esto es correcto!

17voto

Lorin Hochstein Puntos 11816

Supongamos que $A$ y $B$ son matrices que conmutan. Sea $\lambda$ sea un valor propio de $A$ y que $E_{\lambda}$ sea el eigespacio de $A$ correspondiente a $\lambda$ . Sea $\mathbf{v}_1,\ldots,\mathbf{v}_k$ sea una base para $E_{\lambda}$ .

Afirmo que $B$ mapas $E_{\lambda}$ a sí mismo; en particular, $B\mathbf{v}_i$ puede expresarse como una combinación lineal de $\mathbf{v}_1,\ldots,\mathbf{v}_k$ , para $i=1,\ldots,k$ .

Para demostrar que $B$ mapas $E_{\lambda}$ a sí mismo, basta con demostrar que $B\mathbf{v}_i$ se encuentra en $E_{\lambda}$ es decir, que si aplicamos $A$ a $B\mathbf{v}_i$ el resultado será $\lambda(B\mathbf{v}_i)$ . Aquí es donde el hecho de que $A$ y $B$ el viaje de ida y vuelta llega. Lo tenemos: $$A\Bigl(B\mathbf{v}_i\Bigr) = (AB)\mathbf{v}_i = (BA)\mathbf{v}_i = B\Bigl(A\mathbf{v}_i\Bigr) = B(\lambda\mathbf{v}_i) = \lambda(B\mathbf{v}_i).$$ Por lo tanto, $B\mathbf{v}_i\in E_{\lambda}$ como se ha reclamado.

Así que, ahora toma la base $\mathbf{v}_1,\ldots,\mathbf{v}_k$ y extenderlo a una base para $\mathbf{V}$ , $\beta=[\mathbf{v}_1,\ldots,\mathbf{v}_k,\mathbf{v}_{k+1},\ldots,\mathbf{v}_n]$ . Para encontrar la matriz de coordenadas de $B$ en relación con $\beta$ calculamos $B\mathbf{v}_i$ para cada $i$ , escriba $B\mathbf{v}_i$ como una combinación lineal de los vectores en $\beta$ y luego colocar los coeficientes correspondientes en el $i$ columna de la matriz.

Cuando calculamos $B\mathbf{v}_1,\ldots,B\mathbf{v}_k$ Cada uno de ellos estará en $E_{\lambda}$ . Por lo tanto, cada una de ellas puede expresarse como una combinación lineal de $\mathbf{v}_1,\ldots,\mathbf{v}_k$ (ya que forman una base para $E_{\lambda}$ . Por lo tanto, para expresarlos como combinaciones lineales de $\beta$ , sólo hay que añadir $0$ s; tendremos: $$\begin{align*} B\mathbf{v}_1 &= b_{11}\mathbf{v}_1 + b_{21}\mathbf{v}_2+\cdots+b_{k1}\mathbf{v}_k + 0\mathbf{v}_{k+1}+\cdots + 0\mathbf{v}_n\\ B\mathbf{v}_2 &= b_{12}\mathbf{v}_1 + b_{22}\mathbf{v}_2 + \cdots +b_{k2}\mathbf{v}_k + 0\mathbf{v}_{k+1}+\cdots + 0\mathbf{v}_n\\ &\vdots\\ B\mathbf{v}_k &= b_{1k}\mathbf{v}_1 + b_{2k}\mathbf{v}_2 + \cdots + b_{kk}\mathbf{v}_k + 0\mathbf{v}_{k+1}+\cdots + 0\mathbf{v}_n \end{align*}$$ donde $b_{ij}$ son algunos escalares (algunos posiblemente iguales a $0$ ). Por lo tanto, la matriz de $B$ en relación con $\beta$ empezaría algo así: $$\left(\begin{array}{ccccccc} b_{11} & b_{12} & \cdots & b_{1k} & * & \cdots & *\\ b_{21} & b_{22} & \cdots & b_{2k} & * & \cdots & *\\ \vdots & \vdots & \ddots & \vdots & \vdots & \ddots & \vdots\\ b_{k1} & b_{k2} & \cdots & b_{kk} & * & \cdots & *\\ 0 & 0 & \cdots & 0 & * & \cdots & *\\ \vdots & \vdots & \ddots & \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & 0 & * & \cdots & * \end{array}\right).$$

Así que, ahora suponga que tiene una base para $\mathbf{V}$ que consiste enteramente en vectores propios de $A$ ; dejar que $\beta=[\mathbf{v}_1,\ldots,\mathbf{v}_n]$ sea esta base, con $\mathbf{v}_1,\ldots,\mathbf{v}_{m_1}$ correspondiente a $\lambda_1$ (con $m_1$ la multiplicidad algebraica de $\lambda_1$ que es igual a la multiplicidad geométrica de $\lambda_1$ ); $\mathbf{v}_{m_1+1},\ldots,\mathbf{v}_{m_1+m_2}$ los vectores propios correspondientes a $\lambda_2$ y así sucesivamente hasta llegar a $\mathbf{v}_{m_1+\cdots+m_{k-1}+1},\ldots,\mathbf{v}_{m_1+\cdots+m_k}$ correspondiente a $\lambda_k$ . Tenga en cuenta que $\mathbf{v}_{1},\ldots,\mathbf{v}_{m_1}$ son una base para $E_{\lambda_1}$ que $\mathbf{v}_{m_1+1},\ldots,\mathbf{v}_{m_1+m_2}$ son una base para $E_{\lambda_2}$ etc.

Por lo que acabamos de ver, cada uno de $B\mathbf{v}_1,\ldots,B\mathbf{v}_{m_1}$ se encuentra en $E_{\lambda_1}$ por lo que cuando lo expresamos como una combinación lineal de vectores en $\beta$ los únicos vectores con coeficientes no nulos son $\mathbf{v}_1,\ldots,\mathbf{v}_{m_1}$ porque ellos son una base para $E_{\lambda_1}$ . Así que en la primera $m_1$ columnas de $[B]_{\beta}^{\beta}$ (la matriz de coordenadas de $B$ en relación con $\beta$ ), las únicas entradas no nulas de la primera $m_1$ columnas ocurren en la primera $m_1$ filas.

Asimismo, cada uno de $B\mathbf{v}_{m_1+1},\ldots,B\mathbf{v}_{m_1+m_2}$ se encuentra en $E_{\lambda_2}$ por lo que cuando los expresamos como combinaciones lineales de $\beta$ los únicos lugares donde se pueden tener coeficientes no nulos son en los coeficientes de $\mathbf{v}_{m_1+1},\ldots,\mathbf{v}_{m_1+m_2}$ . Así que el $(m_1+1)$ a través de $(m_1+m_2)$ La primera columna de $[B]_{\beta}^{\beta}$ sólo puede tener entradas no nulas en el $(m_1+1)$ a través de $(m_1+m_2)$ en las primeras filas. Y así sucesivamente.

Esto significa que $[B]_{\beta}^{\beta}$ es, de hecho, diagonal en bloque, con los bloques correspondientes a los espacios de los eigenes $E_{\lambda_i}$ de $A$ exactamente como se describe.

5voto

tooshel Puntos 475

Voy a escribir $k_i=m_g(\lambda_i)$ .

Se busca la forma general de una matriz $B$ que conmuta con $$A= \begin{pmatrix} \lambda_1 I_{k_1} & 0 & \cdots & 0 \\ 0 & \lambda_2 I_{k_2} & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & \lambda_m I_{k_m} \end{pmatrix}.$$

Si pones $B$ en la misma estructura de bloques, tiene

$$B= \begin{pmatrix} B_{11} & B_{12} & \cdots & B_{1m} \\ B_{21} & B_{22} & \cdots & B_{2m} \\ \vdots & \vdots & \ddots & \vdots \\ B_{m1} & B_{m2} & \cdots & B_{mm} \end{pmatrix},$$ donde $B_{ij}$ es un $k_i$ -por- $k_j$ matriz.

Entonces $$AB= \begin{pmatrix} \lambda_1 B_{11} & \lambda_1 B_{12} & \cdots & \lambda_1 B_{1m} \\ \lambda_2 B_{21} & \lambda_2 B_{22} & \cdots & \lambda_2 B_{2m} \\ \vdots & \vdots & \ddots & \vdots \\ \lambda_m B_{m1} & \lambda_m B_{m2} & \cdots & \lambda_m B_{mm} \end{pmatrix},$$ mientras que $$BA= \begin{pmatrix} \lambda_1 B_{11} & \lambda_2 B_{12} & \cdots & \lambda_m B_{1m} \\ \lambda_1 B_{21} & \lambda_2 B_{22} & \cdots & \lambda_m B_{2m} \\ \vdots & \vdots & \ddots & \vdots \\ \lambda_1 B_{m1} & \lambda_2 B_{m2} & \cdots & \lambda_m B_{mm} \end{pmatrix}.$$

Se pueden comparar los bloques no diagonales para ver que $B$ debe tener la forma deseada si $BA=AB$ porque $\lambda_i\neq \lambda j$ si $i\neq j$ .

4voto

GmonC Puntos 114

Obtener una matriz diagonal de bloques que exprese $~B$ sólo significa que cada eigespacio para $~A$ (cuya suma directa llena todo el espacio ya que $A$ es supuestamente diagonalizable) es $B$ -estable. Y un hecho útil que se aplica aquí es que cuando dos operadores lineales conmutan, entonces cada subespacio que es el núcleo o la imagen de un polinomio en uno de los operadores es automáticamente estable para el otro operador. Un polinomio en el primer operador es simplemente otro operador $~\psi$ que conmuta con el segundo operador $~\phi$ por lo que basta con demostrar que para el núcleo y la imagen de $\psi$ son $\phi$ -estable cuando $\psi$ y $\phi$ de viaje:

  • Núcleo: si $v\in\ker\psi$ entonces $\psi(\phi(v))=\phi(\psi(v))=\phi(0)=0$ Así que, efectivamente $\phi(v)\in\ker\psi$ .
  • Imagen: si $v=\psi(w)$ entonces $\phi(v)=\phi(\psi(w))=\psi(\phi(w))$ que sí es a imagen y semejanza de $\psi$ .

El eigespacio de $~A$ para $\lambda$ es, por supuesto, sólo el caso especial del núcleo del polinomio $A-\lambda I$ en $~A$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X