Me gustaría encontrar la rectangular matriz $X \in \mathbb{R}^{n \times k}$ que resuelve el siguiente problema de minimización:
$$ \mathop{\text{minimizar }}_{X \in \mathbb{R}^{n \times k}} \left\| A X - B \right\|_F^2 \quad \text{ objeto } X^T X = I_k $$
donde $A \in \mathbb{R}^{m \times n}$ $B \in \mathbb{R}^{m \times k}$ se dan. Esta parece ser una forma de la ortogonales Procrustes problema, pero yo estoy errado en mi caso al $X$ es no cuadrada y $n \gg k$$m > n$.
Con optimismo, estoy en busca de una solución que implique la descomposición de valor singular de un pequeño $k \times k$ matriz, pero yo no estoy viendo. Me interesa especialmente el caso cuando $$A = \left(\begin{array}{c} D_1 \\ D_2\end{array}\right) \in \mathbb{R}^{2n \times n}$$ and $D_1,D_2$ are rank-sufficient diagonal matrices. This is to say that a solution involving $D_1^{-1}$ and $D_2^{-1}$ would be acceptable. The closest I've come (using "Thin SVD" on $$ Y) es:
$$ Y = (A^TA)^{-1}(A^T B) \\ Y = U \Sigma V^T \\ X = UV^T $$
claramente $X^T X = I_k$, pero
- No he convencido a mí misma de que este es el minimizer,
- esto implica que la inversión de un enorme $n \times n$ matriz (tal vez inevitable y no es tan malo en la pila de diagonal caso anterior, cuando $(A^TA)^{-1} = (D_1^2 + D_2^2)^{-1}$, y
- esto implica s.v.d. de una gran rectangular $n \times k$ matriz.
Es correcto esto y tan bueno como se pone? O, ¿hay una solución más eficiente?