Dejemos que $V$ sea un espacio euclidiano de dimensión finita y sea $W_1,W_2$ sean dos subespacios de $V$ . Dejemos que $P_1,P_2$ denotan las proyecciones sobre $W_1,W_2$ respectivamente. ¿Es cierto que la composición $P_1\circ P_2$ ¿es siempre diagonalizable?
Respuesta
¿Demasiados anuncios?Las proyecciones ortogonales son semidefinidas positivas hermitianas (con valores propios $0$ y/o $1$ ). El producto de dos matrices semidefinidas positivas (operadores) es diagonalizable (véase, por ejemplo, el corolario 7.6.2 aquí -- desgraciadamente, no forma parte de la vista previa). Por lo tanto, el producto de dos proyecciones ortogonales es diagonalizable.
La prueba se basa en que dadas dos matrices semidefinidas positivas $A$ y $B$ tal que $r=\mathrm{rank}(A)$ existe una matriz no singular $X$ tal que $$\tag{$ * $} A=X\begin{bmatrix}I_r & 0 \\ 0 & 0\end{bmatrix}X^*, \quad B=X^{-*}DX^{-1}, $$ donde $D$ es diagonal (y tiene entradas diagonales no negativas). Entonces se deduce que $$ AB=X\left(\underbrace{\begin{bmatrix}I_r & 0 \\ 0 & 0\end{bmatrix}D}_{\text{diagonal matrix}}\right)X^{-1}. $$
La prueba de ( $*$ ) no es difícil, sino más bien técnico.
Caso $A$ es definitivo: Es fácil demostrar que $AB$ es diagonalizable si $A$ y $B$ son semidefinidos positivos hermitianos y al menos uno de ellos (digamos, $A$ ) es positiva definida. Para demostrarlo podemos considerar la factorización Cholesky de $A$ : $A=LL^*$ para alguna matriz triangular no singular $L$ . Entonces, como $L^*BL$ es semidefinido positivo, podemos diagonalizarlo unitariamente como $$ L^*BL=UDU^*, $$ donde $U$ es unitario y $D$ tiene una diagonal no negativa. Ahora, establezcamos $X=LU$ y ver que $$\tag{1} A=LL^*=LUU^*L=XX^*, \quad B=L^{-*}UDU^*L^{-1}=X^{-*}DX^{-1}. $$
Ambos $A$ y $B$ semidefinido: El caso de que ambos $A$ y $B$ son semidefinidas es un poco más complicado pero procede esencialmente de la misma manera. Supongamos que $r=\mathrm{rank}(A)$ . Existe una matriz no singular $L$ (no es necesario que sea triangular) tal que $$\tag{2} A=L\begin{bmatrix}I_r&0\\0&0\end{bmatrix}L^*. $$ Esta descomposición puede obtenerse, por ejemplo, mediante la descomposición propia de $A$ y "absorbiendo" la matriz diagonal que contiene los valores propios de $A$ a los factores unitarios. Obsérvese que no podemos proceder directamente como en el caso anterior porque para un factor unitario $U$ no tenemos en general $$ U\begin{bmatrix}I_r&0\\0&0\end{bmatrix}U^*\neq \begin{bmatrix}I_r&0\\0&0\end{bmatrix}, $$ que se utilizó para demostrar que $A=XX^*$ antes; véase (1). Así que debemos encontrar una diagonalización un poco más elegante de $L^*BL$ que dejará la matriz diagonal en (2) sin tocar por la multiplicación de ambos lados.
Así pues, consideremos la matriz $$ L^*BL=\left[\begin{array}{cc}B_{11}&B_{12}\\B_{21}&B_{22}\end{array}\right]\begin{array}{l}\}r\\\}n-r\end{array}. $$ Podemos utilizar el hecho de que (ya que $L^*BL$ es semidefinido positivo) $\mathcal{N}(B_{11})\subset\mathcal{N}(B_{12}^*)$ (lo cual es fácil de demostrar utilizando el hecho de que si $x^*Cx=0$ para una semidefinida $C$ y un vector $x$ entonces $Cx=0$ (en realidad es una generalización de la propiedad de las matrices semidefinidas que establece que un cero en la diagonal implica ceros en la fila y columna correspondientes), lo que implica (debido a la relación entre espacios fundamentales) que $\mathcal{R}(B_{12})\subset \mathcal{R}(B_{11})$ y, por tanto, existe una matriz $Z\in\mathbb{C}^{r\times(n-r)}$ tal que $B_{12}=B_{11}Z$ . De ello se desprende que $$ L^*BL=\begin{bmatrix}B_{11}&B_{11}Z\\Z^*B_{11}&B_{22}\end{bmatrix} =\begin{bmatrix}I&0\\Z^*&I\end{bmatrix}\begin{bmatrix}B_{11}&0\\0&B_{22}-Z^*B_{11}Z\end{bmatrix}\begin{bmatrix}I&Z\\0&I\end{bmatrix}. $$ Ahora ambos bloques diagonales del lado derecho son semidefinidos (ya que tenemos una factorización congruente) por lo que hay matrices unitarias $U_1$ y $U_2$ y matrices semidefinidas positivas diagonales $D_1$ y $D_2$ tal que $$ B_{11}=U_1D_1U_1^*, \quad B_{22}-Z^*B_{11}Z=U_2D_2U_2^*. $$ La matriz de transformación $X$ que buscamos viene dada entonces por $$ X=L\begin{bmatrix}I&-Z\\0&I\end{bmatrix}\begin{bmatrix}U_1&0\\0&U_2\end{bmatrix}. $$ Con $D=\mathrm{diag}(D_1,D_2)$ es fácil ver que $B=X^{-*}DX^{-1}$ . De hecho, $$ \begin{split} B &= L^{-*} \begin{bmatrix} I & 0 \\ Z^* & I \end{bmatrix} \begin{bmatrix} B_{11} & 0 \\ 0 & B_{22}-Z^*B_{11}Z \end{bmatrix} \begin{bmatrix} I & Z \\ 0 & I \end{bmatrix} L^{-1}\\ &= \underbrace{L^{-*} \begin{bmatrix} I & 0 \\ Z^* & I \end{bmatrix} \begin{bmatrix} U_1 & 0 \\ 0 & U_2 \end{bmatrix}}_{X^{-*}} \begin{bmatrix} D_1 & 0 \\ 0 & D_2 \end{bmatrix} \underbrace{\begin{bmatrix} U_1 & 0 \\ 0 & U_2 \end{bmatrix}^* \begin{bmatrix} I & Z \\ 0 & I \end{bmatrix} L^{-1}}_{X^{-1}}\\ &=X^{-*}DX^{-1}. \end{split} $$ También, $$ \begin{split} X\begin{bmatrix}I_r&0\\0&0\end{bmatrix}X^* &= L\begin{bmatrix}I&-Z\\0&I\end{bmatrix}\begin{bmatrix}U_1&0\\0&U_2\end{bmatrix} \begin{bmatrix}I_r&0\\0&0\end{bmatrix} \begin{bmatrix}U_1&0\\0&U_2\end{bmatrix}\begin{bmatrix}I&0\\-Z^*&I\end{bmatrix}L^*\\ &= L \begin{bmatrix}I_r&0\\0&0\end{bmatrix} L^*\\ &=A. \end{split} $$
Obsérvese que el producto de dos oblicuo no es necesario que las proyecciones sean diagonalizables, ya que para $$ P_1 = \begin{bmatrix} 1 & 1 \\ 0 & 0 \end{bmatrix} \quad\text{and}\quad P_2 = \begin{bmatrix} 0 &1 \\ 0&1 \end{bmatrix}, $$ el producto $$ P_1P_2=\begin{bmatrix} 0 & 2 \\ 0 & 0 \end{bmatrix} $$ no se puede diagonalizar.