Supongo que $\sigma_1\neq 0$ lo que significa que $\Sigma$ es invertible. Sea $A=Q\Sigma^{-1}.$ Entonces $Q=A\Sigma$ y $Q^T=\Sigma A^T.$
Queremos $Q^T \Sigma$ sea simétrica, lo que significa que $Q^T\Sigma = \Sigma Q$ o $\Sigma A^T \Sigma = \Sigma A\Sigma.$ Si multiplicamos esto por $\Sigma^{-1}$ de ambos lados, obtenemos $A=A^T,$ así que $A$ es simétrica.
$Q$ es ortogonal, lo que significa que $Q^TQ=I$ o $$ \Sigma A^2 \Sigma = I $$ o $$ A^2 = \Sigma^{-2} $$ Así que estamos buscando una raíz cuadrada de $\Sigma^{-2}$ y el problema se reduce a la pregunta de si $\Sigma^{-1}$ es la única opción válida.
Debemos considerar el caso de que $\Sigma$ tiene valores propios con una multiplicidad superior a $1.$
Dejemos que $\sigma_{r_i} = \sigma_{r_i+1} = \ldots = \sigma_{r_{i+1}-1}$ para $i=1,\ldots,m$ y $r_1=1,$ $r_2=2$ y $r_{m+1}=n+1.$ Además, $\sigma_{r_i}<\sigma_{r_{i+1}}$ para $i=1,\ldots,m-1.$ Entonces cada raíz cuadrada de $\Sigma^{-2}$ puede escribirse como sigue $$ A = \begin{pmatrix} \sigma_{r_1}^{-1} B_1 & & & & 0 \\ & \sigma_{r_2}^{-1} B_2 & & & \\ & & \sigma_{r_3}^{-1} B_3 & & \\ & & & \ddots & \\ 0 & & & & \sigma_{r_m}^{-1} B_m \end{pmatrix} \;\;,\;\; B_i^2 = I\;\;\mbox{for}\;\; i=1,\ldots,m $$ donde $B_i$ son bloques de tamaño $(r_{i+1}-r_i)\times (r_{i+1}-r_i).$ (La prueba se da a continuación)
Entonces $$ Q = \begin{pmatrix} B_1 & & & & 0 \\ & B_2 & & & \\ & & B_3 & & \\ & & & \ddots & \\ 0 & & & & B_m \end{pmatrix} $$ El $B_i$ son simétricos. $B_i^T$ es la inversa de $B_i$ debido a la ortogonalidad de $Q$ y $B_i$ es también la inversa de $B_i$ por la propiedad $B_i^2=I.$ Por lo tanto, $B_i^T=B_i$ y $$ Q^T\Sigma = \begin{pmatrix} \sigma_{r_1}B_1 & & & & 0 \\ & \sigma_{r_2}B_2 & & & \\ & & \sigma_{r_3}B_3 & & \\ & & & \ddots & \\ 0 & & & & \sigma_{r_m}B_m \end{pmatrix} $$ Queremos $Q^T\Sigma$ para tener los mismos valores propios que $\Sigma,$ lo que a su vez significa que $\sigma_{r_i}B_i$ tiene $\sigma_{r_i}$ como su único valor propio. Una matriz simétrica con un solo valor propio debe ser un múltiplo escalar de la matriz identidad. Por lo tanto, $B_i = I$ para $i,\ldots,m,$ lo que completa la prueba.
Boceto de prueba para $\sigma_1=0$
Si $\sigma_1=0,$ se puede demostrar fácilmente que $Q_{11}\in\{-1,1\}$ y $Q_{1j}=Q_{j1}=0$ para $j=2,\ldots,n.$ Esto se deduce de la simetría de $Q^T\Sigma$ y de la ortogonalidad de $Q.$
Esto significa que podemos seguir el argumento de la primera parte de la prueba, pero considerando sólo el subespacio que es ortogonal a $e_1.$ Básicamente, esto significa que ignoramos la primera fila y la primera columna de todos los $n\times n$ matrices. Al final, tenemos que decidir si $Q_{11}=1$ o $Q_{11}=-1.$ Como $Q\in \mathrm{SO}(n)$ y $B_i=I$ para $i=2,\ldots,m,$ podemos concluir $Q_{11}=1.$
Raíces cuadradas diagonalizables de matrices diagonales
Dejemos que $A$ sea diagonalizable y $A^2$ diagonal. Sin pérdida de generalidad, los elementos diagonales de $A^2$ están ordenados de forma ascendente. Sea $0\leq\lambda_1 < \lambda_2 < \ldots < \lambda_m$ tal que los valores propios de $A$ forman un subconjunto (no necesariamente estricto) subconjunto de $\{\lambda_1,\;-\lambda_1,\;\lambda_2,\;-\lambda_2,\;\ldots,\;\lambda_m,\;-\lambda_m\}.$ Dejemos que $t_i^{+}$ sea la multiplicidad algebraica y geométrica de $\lambda_i$ y $t_i^{-}$ la multiplicidad algebraica y geométrica de $-\lambda_i$ dentro de la matriz $A$ (ponemos $t_1^{-}=0$ si $\lambda_1=0.$ ) Sea $r_1=1$ y $r_{i+1} = r_i + t_i^{+}+ t_i^{-}.$
Si $Av = \lambda v$ y $Aw = -\lambda w,$ entonces $A^2 (v+w) = A^2 v + A^2 w =\lambda^2 v + (-\lambda)^2 w = \lambda^2 (v+w).$ Esto significa que el eigespacio de $A^2$ con respecto al valor propio $\lambda^2$ es la suma directa de los eigenspaces de $A$ con respecto a los valores propios $\lambda$ y $-\lambda.$
Como $A$ es diagonalizable, la suma directa de los eigenspaces $E_{A,\lambda_1},$ $E_{A,-\lambda_1}$ , $E_{A,\lambda_2},$ $E_{A,-\lambda_2},\ldots$ , $E_{A,\lambda_m},$ $E_{A,-\lambda_m}$ , forma el espacio vectorial completo $\mathbb{R}^n.$ Esto significa que cada uno de los eigenspaces de $A^2$ puede escribirse como $E_{A,\lambda_i} \oplus E_{A,-\lambda_i}.$ Por así decirlo, no hay espacio para otros eigenspaces que no sean esos.
Conocemos los eigenspaces de $A^2,$ porque $A^2$ es diagonal. Tenemos \begin{eqnarray*} E_{A^2,\lambda_1^2} & = & E_{A,\lambda_1} \oplus E_{A,-\lambda_1} = \mathrm{span}\{e_{r_1},\ldots,e_{r_2-1}\} \\ & \vdots & \\ E_{A^2,\lambda_m^2} & = & E_{A,\lambda_m} \oplus E_{A,-\lambda_m} = \mathrm{span}\{e_{r_m},\ldots,e_{r_{m+1}-1}\} \end{eqnarray*} con la base estándar $e_1,\ldots,e_n.$ Ahora está claro que $A$ se puede diagonalizar mediante una matriz de bloques, porque cada $E_{A,\lambda_i} \oplus E_{A,-\lambda_i}$ se extiende por los elementos relacionados de la base estándar. $$ A= \begin{pmatrix} S_1 & & 0 \\ & \ddots & \\ 0 & & S_m \end{pmatrix} \begin{pmatrix} \lambda_1 I_{t_1^{+}} & & & & 0 \\ & -\lambda_1 I_{t_1^{-}} & & & \\ & & \ddots & & \\ & & & \lambda_m I_{t_m^{+}} & \\ 0 & & & & -\lambda_m I_{t_m^{-}} \end{pmatrix} \begin{pmatrix} S_1 & & 0 \\ & \ddots & \\ 0 & & S_m \end{pmatrix} ^{-1} $$ A partir de esto, simplemente procesando la multiplicación de la matriz, podemos concluir que $A$ es también una matriz de bloques del mismo tipo, es decir $$ A = \begin{pmatrix} A_1 & & 0 \\ & \ddots & \\ 0 & & A_m \end{pmatrix} $$ con $$ A_i = S_i\,\begin{pmatrix} \lambda_i I_{t_i^{+}} & \\ & -\lambda_i I_{t_i^{-}} \\ \end{pmatrix} \, S_i^{-1} $$ Ahora sólo tenemos que demostrar que $A_i = \lambda_i B_i$ con $B_i^2=I.$
Dejemos que $T_i=S_i^{-1}$ .
Dejemos que $S_i^{+}$ sea el $(t_i^{+}+t_i^{-})\times t_i^{+}$ matriz que está formada por la primera $t_i^{+}$ columnas de $S_i$ y $S_i^{-}$ el $(t_i^{+}+t_i^{-})\times t_i^{-}$ matriz que está formada por la última $t_i^{-}$ columnas de $S_i.$ Dejemos que $T_i^{+}$ sea el $t_i^{+}\times (t_i^{+}+t_i^{-})$ matriz que está formada por la primera $t_i^{+}$ filas de $T_i$ y $T_i^{-}$ el $t_i^{-}\times (t_i^{+}+t_i^{-})$ matriz que está formada por la última $t_i^{-}$ filas de $T_i.$
Entonces $T_i^{+}S_i^{+}=I,\;\;T_i^{-}S_i^{-}=I,\;\;T_i^{+}S_i^{-}=0,\;\;T_i^{-}S_i^{+}=0$ . $$ A_i = S_i^{+}\lambda_i T_i^{+} + S_i^{-}(-\lambda_i) T_i^{-} = \lambda_i \left( S_i^{+}T_i^{+} - S_i^{-}T_i^{-}\right) $$ Dejemos que $B_i = S_i^{+}T_i^{+} - S_i^{-}T_i^{-}.$ Entonces \begin{eqnarray*} B_i^2 & = & \left( S_i^{+}T_i^{+} - S_i^{-}T_i^{-}\right)\left( S_i^{+}T_i^{+} - S_i^{-}T_i^{-}\right) \\ & =& S_i^{+}T_i^{+}S_i^{+}T_i^{+}-S_i^{+}T_i^{+}S_i^{-}T_i^{-}-S_i^{-}T_i^{-}S_i^{+}T_i^{+}+S_i^{-}T_i^{-}S_i^{-}T_i^{-} \\ & =& S_i^{+}\cdot I\cdot T_i^{+}-S_i^{+}\cdot 0 \cdot T_i^{-}-S_i^{-}\cdot 0 \cdot T_i^{+}+S_i^{-}\cdot I\cdot T_i^{-} \\ & =& S_i^{+}T_i^{+}+S_i^{-}T_i^{-} \\ & =& \begin{pmatrix} & & \\ S_i^{+} & & S_i^{-} \\ & & \end{pmatrix} \begin{pmatrix} & T_i^{+} & \\ & & \\ & T_i^{-} & \end{pmatrix} =S_iT_i = I \fin{eqnarray*}