$\newcommand{\Sig}{\Sigma}$ $\newcommand{\dist}{\operatorname{dist}}$ $\newcommand{\distSO}[1]{\dist(#1,\SO)}$ $\newcommand{\distO}[1]{\text{dist}(#1,\On)}$ $\newcommand{\tildistSO}[1]{\operatorname{dist}_{\til d}(#1,\SO)}$ $\newcommand{\SOn}{\operatorname{SO}_n}$ $\newcommand{\On}{\operatorname{O}_n}$ $\newcommand{\GLp}{\operatorname{GL}_n^+}$ $\newcommand{\GLtwo}{\operatorname{GL}_2^+}$ $\newcommand{\GLm}{\operatorname{GL}_n^-}$ $\newcommand{\sig}{\sigma}$ $\newcommand{\diag}{\operatorname{diag}}$
Sea $A$ ser un verdadero $n \times n$ matriz, con determinante negativo. Supongamos que los valores singulares de $A$ son distintos por pares. Entonces, se puede demostrar que existe un único matriz ortogonal especial $Q(A)$ que está más cerca de $A$ (con respecto a la distancia de Frobenius).
Quiero averiguar si existe una "fórmula" para $Q(A)$ digamos en términos de raíces positivas, inversas, multiplicación de matrices, etc. ¿Hay alguna esperanza para tal cosa?
Por fórmula no entiendo una fórmula "cerrada". Un ejemplo estrechamente relacionado con lo que busco es el factor polar ortogonal de una matriz invertible:
Si $A=OP$ donde $O \in \On$ y $P$ es simétrico positivo-definido, entonces $P=\sqrt{A^TA}$ (aquí $\sqrt{}$ es la única raíz cuadrada simétrica positiva-definida) y $O=O(A)=AP^{-1}=A(\sqrt{A^TA})^{-1}$ . Considero que es una fórmula aceptable.
(Comentario: El factor ortogonal $O(A)$ es la matriz ortogonal más próxima a $A$ ).
Edita 2:
Después de pensarlo un poco más, creo que la idea de una "fórmula razonable" puede ser un poco desesperanzadora: Si tuviéramos esa fórmula "razonable", probablemente podríamos extenderla continuamente a todos los $\GLm$ . Sin embargo, tal extensión continua no existe:
Establecer $A_n=\begin{pmatrix} -1 & 0 \\\ 0 & 1+\frac{1}{n} \end{pmatrix},B_n=\begin{pmatrix} -(1+\frac{1}{n}) & 0 \\\ 0 & 1 \end{pmatrix}$ .
Entonces $Q(A_n)=\text{Id},Q(B_n)=-\text{Id}$ mientras que $A_n ,B_n$ ambos convergen a $\begin{pmatrix} -1 & 0 \\\ 0 & 1 \end{pmatrix}$ .
Este fenómeno implica que quizás lo mejor que podemos hacer es encontrar "expresiones parciales", como en Respuesta de Dap .
Esto es lo que sé: Deja $A=U\Sig V^T$ sea la descomposición de valores singulares de $A$ podemos suponer que $\Sig = \diag\left( \sig_1,\dots\sig_n \right)$ donde $\sigma_1$ es el el más pequeño valor singular de $A$ y que $U \in \SOn,V \in \On,\det V=-1$ .
Establecer $\Sig':=\diag\left( -\sig_1,\dots\sig_n \right)$ y reescribir $$ A= U\Sig V^T = U (\Sig \diag\left( -1,1,1\dots ,1 \right)) (\diag\left( -1,1,1\dots ,1 \right) V ^T ) =U \Sig' \tilde V^T, $$ donde $\tilde V \in \SOn$ se define exigiendo $\diag\left( -1,1,1\dots ,1 \right) V ^T=\tilde V^T$ .
Entonces, resulta que $Q(A)=U\tilde V^T$ .
En concreto, tenemos $$ \dist(A,\SOn)= \dist(U \Sig' \tilde V^T ,\SOn)= \dist( \Sig' ,\SOn)=d(\Sig' ,\text{Id})\\=(\sig_1+1)^2 + \sum_{i=2}^n \left( \sig_i-1 \right)^2, $$ y se puede demostrar que $\text{Id}$ es la única matriz más cercana en $\SOn$ a $\Sig'$ . (Es importante que $\sigma_1$ es el el más pequeño valor singular de $A$ ).
Comentario:
Prefiero una fórmula que no implique directamente la vectores singulares de $A$ ya que quiero entender la fluidez con la que lo hace $Q(A)$ varía con $A$ . (La fórmula del factor ortogonal antes mencionada implica inmediatamente que es una función suave de la matriz, una vez que se sabe que la raíz cuadrada positiva es suave). Por último, obsérvese que mientras $Q(A)=U\tilde V^T$ el factor ortogonal cumple $O(A)=UV^T$ ).
Edita: He descubierto que el minimizador $Q(A)$ sí que cambia suavemente; esto se deduce del hecho de que localmente , podemos elegir las matrices $U,V$ sin problemas . Sin embargo, creo que una fórmula elegante seguiría siendo algo positivo. (Aunque no la necesitemos para establecer la suavidad).
Se puede encontrar una discusión más abstracta sobre la suavidad de los minimizadores ici .