Demuestro a continuación que cualquier matriz $n \times n$ de rango $r < n$ es el producto de exactamente $r+1$ proyecciones. Prefiero presentar mi demostración a continuación en términos de mapas lineales $a$ en lugar de matrices $A$, pero esto no cambia nada, por supuesto.
Comencemos con una base $(b_{r+1},\ldots,b_n)$ de ${\sf Ker}(a)$, y completemos esta base en una base completa $(b_{1},\ldots,b_n)$ de ${\mathbb R}^n$. Definamos un endomorfismo $q$ de ${\mathbb R}^n$ tal que $q(b_k)=b_k$ cuando $k \leq r$ y $q(b_k)=0$ en otro caso. Entonces $q^2=q$ es una proyección, y coincide con $a$ en $b_{r+1},\ldots,b_n$. La idea es multiplicar $q$ por proyecciones a la izquierda, haciendo que el producto coincida con $a$ en más y más vectores. De esta forma, tendremos un producto $p_1\ldots p_r q$, donde $p_k\ldots p_r q$ coincide con $a$ en $b_{k},\ldots,b_n$ para cada $k\leq r.
Una condición suficiente para que esto funcione es que para $k\in[|1,r|]$, $p_k$ fije todos los elementos en ${\cal F}_k=\lbrace b_j | 1\leq j \leq k\rbrace \cup \lbrace ab_j | k\leq j \leq r\rbrace $ excepto $b_k$, al cual envía a $ab_k$. Si ${\cal F}_k$ es linealmente independiente, esas condiciones definen de forma única una proyección en el subespacio generado por ${\cal F}_k$, la cual puede ser extendida fácilmente a una proyección definida en todo ${\mathbb R}^n$. Entonces será suficiente mostrar lo siguiente:
Lema. Existe una elección de $b_1,b_2,\ldots,b_r$ tal que cada uno de los conjuntos ${\cal F}_1,{\cal F}_2,\ldots, {\cal F}_r$ es linealmente independiente.
Prueba del lema. Comenzamos con un $(c_1,\ldots,c_r)$ arbitrario en el cual $a$ es inyectiva. Construiremos $b_1,\ldots,b_r$ mediante una inducción descendente, comenzando con $b_r$, y luego procediendo a $b_{r-1},\ldots,b_1$. La hipótesis de inducción que nuestro $b_l$ debe satisfacer en cada paso es que las familias ${\cal F}^l_k=\lbrace b_j | l\leq j \leq k\rbrace \cup \lbrace ab_j | k\leq j \leq r\rbrace$ para $k\in[|l,r|]$ deben ser todas linealmente independientes.
Caso base: cuando $l=r$, solo tenemos una condición, es decir, que ${\cal F}^r_r=\lbrace b_r,ab_r \rbrace$ debe ser linealmente independiente. Si $c_r$ satisface esta condición, entonces bien, tomamos $b_r=c_r$, de lo contrario simplemente tomamos $b_r=c_r+z$ donde $z$ es cualquier vector no nulo en ${\sf Ker}(a)$.
Paso inductivo: supongamos ahora que $l
$$ \begin{array}[cl] \ (i) & b_l \not\in {\sf span}(G_k), \ \text{donde} \ G_k= \lbrace b_j | l+1\leq j \leq k\rbrace \cup \lbrace ab_j | k\leq j \leq r\rbrace \ \text{para} \ l+1\leq k\leq r \\ (ii) & \lbrace b_l,ab_l \rbrace \ \cup aH \ \text{es linealmente independiente, donde} \ H=\lbrace b_j | l+1\leq j \leq r\rbrace \end{array} $$
Antes de encontrar un vector que satisfaga tanto (i) como (ii), notemos que podemos encontrar vectores que satisfacen solo (i) y vectores que satisfacen solo (ii). Para (i) este es un ejercicio de álgebra lineal conocido, que la unión de subespacios estrictos nunca es igual al subespacio completo en un campo base infinito. También (ii) se puede reformular como: $\lbrace \pi b_l,\pi a b_l \rbrace$ es linealmente independiente, donde $\pi$ es la proyección canónica $\pi : {\mathbb R}^n \to \frac{{\mathbb R}^n}{{\sf span}(aH)}$. Observemos que $\pi a$ es inyectiva en $K={\sf span}(c_1,\ldots,c_l)$, y dado que las dimensiones de $K$ y $\frac{{\mathbb R}^n}{{\sf span}(aH)}$ coinciden, $\pi a$ es un isomorfismo lineal. Si $\lbrace \pi k,\pi a k \rbrace$ es linealmente dependiente para cada $k\in K$, otro ejercicio de álgebra lineal bien conocido muestra que existe una constante $\lambda$ tal que $\pi a k=\lambda \pi k$ para cada $k\in K$. En esta situación, $k+h$ satisface (ii) para cualquier $k\in K$ y cualquier $h\in{\sf span}(H)$.
Finalmente, notamos que todas las condiciones en (i) o (ii) son polinomiales, de la forma $q(x_1,\ldots,x_n)\neq 0$ donde $q$ es un polinomio. Dado que cada condición puede satisfacerse por separado, cada polinomio es distinto de cero, por lo que su producto es distinto de cero, mostrando que algún vector satisfará todas las condiciones a la vez. Esto concluye la prueba.
0 votos
Desde que para cada $P$ tal, $\|Px\|\leq\|x\|$, también para su producto $\|Ax\|\leq\|x\|$. En particular, $A$ no puede tener valores propios con tamaño mayor que $1$, por lo que tu creencia original definitivamente necesita cierto refinamiento.
2 votos
@mge No, las proyecciones no tienen que ser proyecciones ortogonales. Pueden tener una norma arbitrariamente grande.
0 votos
@RobertIsrael Ups, una lectura descuidada de mi parte, gracias por la corrección