Dejemos que VV sea un espacio euclidiano de dimensión finita y sea W1,W2W1,W2 sean dos subespacios de VV . Dejemos que P1,P2P1,P2 denotan las proyecciones sobre W1,W2W1,W2 respectivamente. ¿Es cierto que la composición P1∘P2P1∘P2 ¿es siempre diagonalizable?
Respuesta
¿Demasiados anuncios?Las proyecciones ortogonales son semidefinidas positivas hermitianas (con valores propios 00 y/o 11 ). El producto de dos matrices semidefinidas positivas (operadores) es diagonalizable (véase, por ejemplo, el corolario 7.6.2 aquí -- desgraciadamente, no forma parte de la vista previa). Por lo tanto, el producto de dos proyecciones ortogonales es diagonalizable.
La prueba se basa en que dadas dos matrices semidefinidas positivas AA y BB tal que r=rank(A)r=rank(A) existe una matriz no singular XX tal que A=X[Ir000]X∗,B=X−∗DX−1, donde D es diagonal (y tiene entradas diagonales no negativas). Entonces se deduce que AB=X([Ir000]D⏟diagonal matrix)X−1.
La prueba de ( ∗ ) no es difícil, sino más bien técnico.
Caso A es definitivo: Es fácil demostrar que AB es diagonalizable si A y B son semidefinidos positivos hermitianos y al menos uno de ellos (digamos, A ) es positiva definida. Para demostrarlo podemos considerar la factorización Cholesky de A : A=LL∗ para alguna matriz triangular no singular L . Entonces, como L∗BL es semidefinido positivo, podemos diagonalizarlo unitariamente como L∗BL=UDU∗, donde U es unitario y D tiene una diagonal no negativa. Ahora, establezcamos X=LU y ver que A=LL∗=LUU∗L=XX∗,B=L−∗UDU∗L−1=X−∗DX−1.
Ambos A y B semidefinido: El caso de que ambos A y B son semidefinidas es un poco más complicado pero procede esencialmente de la misma manera. Supongamos que r=rank(A) . Existe una matriz no singular L (no es necesario que sea triangular) tal que A=L[Ir000]L∗. Esta descomposición puede obtenerse, por ejemplo, mediante la descomposición propia de A y "absorbiendo" la matriz diagonal que contiene los valores propios de A a los factores unitarios. Obsérvese que no podemos proceder directamente como en el caso anterior porque para un factor unitario U no tenemos en general U[Ir000]U∗≠[Ir000], que se utilizó para demostrar que A=XX∗ antes; véase (1). Así que debemos encontrar una diagonalización un poco más elegante de L∗BL que dejará la matriz diagonal en (2) sin tocar por la multiplicación de ambos lados.
Así pues, consideremos la matriz L∗BL=[B11B12B21B22]}r}n−r. Podemos utilizar el hecho de que (ya que L∗BL es semidefinido positivo) N(B11)⊂N(B∗12) (lo cual es fácil de demostrar utilizando el hecho de que si x∗Cx=0 para una semidefinida C y un vector x entonces Cx=0 (en realidad es una generalización de la propiedad de las matrices semidefinidas que establece que un cero en la diagonal implica ceros en la fila y columna correspondientes), lo que implica (debido a la relación entre espacios fundamentales) que R(B12)⊂R(B11) y, por tanto, existe una matriz Z∈Cr×(n−r) tal que B12=B11Z . De ello se desprende que L∗BL=[B11B11ZZ∗B11B22]=[I0Z∗I][B1100B22−Z∗B11Z][IZ0I]. Ahora ambos bloques diagonales del lado derecho son semidefinidos (ya que tenemos una factorización congruente) por lo que hay matrices unitarias U1 y U2 y matrices semidefinidas positivas diagonales D1 y D2 tal que B11=U1D1U∗1,B22−Z∗B11Z=U2D2U∗2. La matriz de transformación X que buscamos viene dada entonces por X=L[I−Z0I][U100U2]. Con D=diag(D1,D2) es fácil ver que B=X−∗DX−1 . De hecho, B=L−∗[I0Z∗I][B1100B22−Z∗B11Z][IZ0I]L−1=L−∗[I0Z∗I][U100U2]⏟X−∗[D100D2][U100U2]∗[IZ0I]L−1⏟X−1=X−∗DX−1. También, X[Ir000]X∗=L[I−Z0I][U100U2][Ir000][U100U2][I0−Z∗I]L∗=L[Ir000]L∗=A.
Obsérvese que el producto de dos oblicuo no es necesario que las proyecciones sean diagonalizables, ya que para P1=[1100]andP2=[0101], el producto P1P2=[0200] no se puede diagonalizar.