Digamos que tengo un punto $\mathbf{x}$ en $n$ -espacio dimensional. Para cualquier base $(\mathbf{u}_1, ..., \mathbf{u}_n)$ , $\mathbf{x}$ puede escribirse como una combinación lineal de esta base.
$\mathbf{x} = x_1 \mathbf{u}_1 + x_2 \mathbf{u}_2 + ... + x_n \mathbf{u}_n$ donde cada $x_i$ es una proyección de $\mathbf{x}$ en $\mathbf{u}_i$ .
Ahora quiero generalizarlo a una matriz $\mathbf{X}$ en $\mathbb{R}^{m\times n}$ . La descomposición del valor singular (SVD) garantiza que cualquier matrx $\mathbf{X}$ de rango $r$ puede escribirse como $$\mathbf{X} = \sum_{i=1}^r \sigma_i \mathbf{u}_i \mathbf{v}^T_i$$ donde $\mathbf{u}_1, ..., \mathbf{u}_r\in\mathbb{R}^m$ son ortonormales (cada una tiene longitud 1 y cada par es ortogonal) y $\mathbf{v}_1, ..., \mathbf{v}_r\in\mathbb{R}^n$ también son ortonormales. Cada par $\mathbf{u}_i$ y $\mathbf{v}_i$ forman un par de vectores singulares izquierdo y derecho con valor singular $\sigma_i$ .
Tenga en cuenta que $\mathbf{u}_1, ..., \mathbf{u}_r$ no es el único conjunto vectorial ortonormal en $\mathbb{R}^m$ . De hecho, cualquier $r$ vectores recogidos de un ortonormal base $\mathbf{u}'_1, ..., \mathbf{u}'_m\in\mathbb{R}^m$ puede ser un candidato. Lo mismo ocurre con los vectores singulares de la derecha $\mathbf{v}_i$ 's.
Entonces la pregunta es, ¿puedo escribir la descomposición tipo SVD usando cada base ortonormal que no sean los vectores singulares izquierdo/derecho? (Entonces la SVD puede considerarse como un caso especial de esta composición que utiliza vectores singulares izquierdo/derecho). Es decir, ¿puedo escribir algo como $$\mathbf{X} = \sum_{i=1}^r \alpha_i \mathbf{s}_i \mathbf{t}^T_i$$ para todo vector ortonormal $\mathbf{s}_1, ..., \mathbf{s}_r\in\mathbb{R}^m$ y $\mathbf{t}_1, ..., \mathbf{t}_r\in\mathbb{R}^n$ ? Si eso es posible, ¿cómo puedo calcular tal $\alpha_i$ 's?