Considera la SVD de la matriz $A$:
$$A = U \Sigma V^\top$$
Si $A$ es una matriz real simétrica y semidefinida positiva, ¿hay garantía de que $U = V$?
Segunda pregunta (por curiosidad): ¿Cuál es la condición mínima necesaria para que $U = V$?
Considera la SVD de la matriz $A$:
$$A = U \Sigma V^\top$$
Si $A$ es una matriz real simétrica y semidefinida positiva, ¿hay garantía de que $U = V$?
Segunda pregunta (por curiosidad): ¿Cuál es la condición mínima necesaria para que $U = V$?
Aquí hay un intento de proporcionar una respuesta clara, basándose en la respuesta de Arash.
Primer:
Cualquier matriz $A$ puede descomponerse mediante la Descomposición de Valores Singulares (SVD) como $A = U \Sigma V^\top$. $U$ y $V$ son matrices unitarias. Esta descomposición no es única: la parte de los valores singulares $\Sigma$ es única ; sin embargo, los signos en los vectores singulares izquierdos y derechos pueden intercambiarse. Además, cuando al menos un valor singular es cero, hay muchos posibles vectores singulares correspondientes. Se cumplen las siguientes afirmaciones (fuente):
si $A$ es real simétrica entonces (teorema espectral) es diagonalizable y, por lo tanto, tiene al menos una descomposición de eigenvalores $A = Q \Lambda Q^{-1} = Q \Lambda Q^\top $. (esta publicación muestra un contraejemplo no diagonalizable de una matriz compleja simétrica). En general, esta descomposición no es única: la parte de los eigenvalores $\Lambda$ es única ; sin embargo, la parte de los eigenvectores $Q$ es única solo si ningún eigenvalor es cero.
entonces, si $A$ es real simétrica
Ahora, para traducir esto en una respuesta a tu pregunta:
si $A$ es real simétrica y definida positiva (es decir, todos sus eigenvalores son estrictamente positivos), $\Sigma$ es una matriz diagonal que contiene los eigenvalores, y $U=V$.
si $A$ es real simétrica y solo semidefinida positiva (es decir, todos sus eigenvalores son positivos pero algunos de sus eigenvalores pueden ser cero), $\Sigma$ es una matriz diagonal que contiene los eigenvalores, pero no hay garantía de que $U=V$. De hecho, la parte de $U$ y $V$ correspondiente a los eigenvalores cero puede ser cualquier descomposición ortonormal del espacio nulo de $A$, con posibilidad de cambio de signo independiente en $U$ y $V$.
si $A$ es solo real simétrica y no semidefinida positiva (es decir, algunos de sus eigenvalores pueden ser negativos), entonces $\Sigma$ es una matriz diagonal que contiene los valores absolutos de los eigenvalores. Entonces hay dos razones por las que no hay garantía de que $U=V$. Si hay un eigenvalor cero, entonces ver el punto anterior. Si hay un eigenvalor negativo, entonces el signo "quitado" al eigenvalor en $\Lambda$ para construir el (positivo por definición) $\Sigma$ para hacerlo positivo tiene que terminar en $U$ o $V$. Para un ejemplo concreto, considera una matriz diagonal con al menos un elemento negativo.
Como señaló Arash, puedes reemplazar en todas las afirmaciones anteriores las palabras "real simétrica" por "normal".
Entonces, para concluir, una condición mínima para que $U=V$ es ser normal y definida positiva. Ahora, ¿es esto necesario? ¿Está probado que las matrices no normales no pueden tener eigenvalores estrictamente positivos? Esta es la parte que no estoy seguro.
En primer lugar, observe que $U$ y $V$ no son únicos en general. Sin embargo, es posible encontrar una relación entre los distintos descomposiciones en valores singulares (SVD) de una matriz $A$ y trabajar con una matriz real hace las cosas más fáciles.
Para un $A$ real general, permita que los valores singulares de $A$ no sean cero. Si $A=U_1\Sigma V_1^T$ y $A=U_2\Sigma V_2^T$ entonces, desde este enlace, existe una matriz diagonal $D=\mathrm{diag}(\pm 1,\dots,\pm 1)$ tal que: $$ U_1=U_2D, V_1=V_2D. $$ Ahora suponga que $A$ es una matriz normal con eigenvalores positivos. Puede ser diagonalizada ortogonalmente. Entonces podemos ver que: $$ A=UDU^{T} $$ Esta es una SVD de $A$. Por lo tanto, para $A=U_1\Sigma V_1^T$ entonces $U_1=UD$ y $V_1=UD$ lo cual implica que $U_1=V_1$. En otras palabras, tener una matriz normal con eigenvalores positivos es suficiente para tener $U=V$. Esta clase incluye matrices definidas positivas. Cuando se permiten valores singulares cero, la situación es más complicada. Tome la matriz cero por ejemplo.
Si la matriz es simétrica entonces $U=V$, como por el teorema espectral sabemos que la descomposición de los autovalores y la descomposición de los valores singulares deben ser iguales. De eso vemos que $U = U\Lambda U^{-1}=U\Lambda U^T=U\Sigma V^T$, y como por el teorema $\Sigma = \Lambda$ entonces $U=V$.
Auto-respuesta:
En primer lugar, hay que tener en cuenta el énfasis en ser positivo semi-definido. Como otros han dicho correctamente, si $\mathbf A$ es singular, no hay garantía de ello, y $\mathbf U$ y $\mathbf V$ pueden ser diferentes. Como dijo @Arash, considera la matriz cero, la SVD no es única.
Sin embargo, si consideramos el espacio de columnas o el espacio generado por $\mathbf A$, y proyectamos $\mathbf U$ y $\mathbf V$ en este espacio, los U y V proyectados son iguales.
Parece que la no-singularidad también proporciona la condición necesaria para $\mathbf U=\mathbf V$. Pero necesito verificar esto.
La siguiente pregunta podría ser, ¿cuál(es) es (son) la(s) condición(es) mínima(s) necesaria(s) para U=V? (no solo una condición suficiente, por ejemplo, pos-def).
I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.