Observe que $\Gamma(n)$ es el conjunto de todos los reales $n \times n$ matrices ortogonales de simetría sesgada, es decir $$ \Gamma(n) = O(n) \cap \mathfrak{o}(n) \cap M_n(\mathbb{R}), $$ y que $$ \mathcal{U}(n) := \{U \in U(n) \mid U\Gamma(n)U^T \subset \Gamma(n)\}. $$ Afirmo que $$ \mathcal{U}(n) = \begin{cases} \{ \eta U_0 \mid \eta \in \{\pm 1, \pm i\}, \; U_0 \in SU(2)\} &\text{if $ n=2 $,}\\ O(n) \cup iO(n) &\text{if $ n \geq 4 $.} \end{cases} $$
Consideremos primero el caso en el que $n \geq 4$ .
En primer lugar, observe que si $O \in O(n)$ entonces para cualquier $\gamma \in \Gamma(n)$ , $O \gamma O^T$ y $(iO)\gamma(iO)^T = -O \gamma O^T$ siguen siendo reales, sesgadas y ortogonales, por lo que $\mathcal{U}(n) \supset O(n) \cup iO(n)$ . Por lo tanto, basta con demostrar la inclusión inversa, $\mathcal{U}(n) \subset O(n)\cup iO(n)$ . Para ello, sin embargo, necesitaremos los siguientes lemas.
Lema 0: Dejemos que $v$ , $w \in \mathbb{R}^n$ sean vectores unitarios ortogonales. Entonces existe algún $\gamma_{wv} \in \Gamma(n)$ tal que $w = \gamma_{wv} v$ (y por lo tanto $v = -\gamma_{wv} w$ ).
Prueba: Dejemos que $e_1 = v$ y $e_2 = w$ y completa $\{e_1,e_2\}$ a una base ortonormal $\{e_1,e_2,\dotsc,e_n\}$ de $\mathbb{R}^n$ . Entonces $\gamma_{vw} \in \Gamma(n)$ definido por $$ \gamma_{wv} e_{2k+1} = e_{2k+2}, \quad \gamma_{vw} e_{2k+2} = -e_{2k+1}, \quad 0 \leq k \leq \frac{n-2}{2} $$ es una matriz real ortogonal sesgada tal que $w = \gamma_{wv} v$ según sea necesario. QED
Lema 1: $\{A \in M_n(\mathbb{R}) \mid A = A^T, \; \forall \gamma \in \Gamma(n), \; A \gamma = \gamma A\} = \mathbb{R}I_n$ .
Prueba: Dejemos que $A$ sea una matriz de este tipo. Sea $\{e_1,\dotsc,e_n\}$ sea la base ordenada estándar de $\mathbb{R}^n$ .
Demostremos primero que las entradas diagonales de $A$ son todos iguales. En primer lugar, observe que para cualquier $v \in \mathbb{R}^n$ , $$ \langle \gamma v, A \gamma v \rangle = \langle \gamma v, \gamma A v \rangle = \langle \gamma^T \gamma v, A v \rangle = \langle v, A v \rangle. $$ Pero ahora, por el lema 0, para cualquier $k \neq l$ existe $\gamma \in \Gamma(n)$ sea tal que $e_l = \gamma e_k$ para que $$ A_{ll} = \langle e_l, A e_l \rangle = \langle \gamma e_k, A \gamma e_k \rangle = \langle e_k, A e_k \rangle = A_{kk}. $$ Por lo tanto, efectivamente, todas las entradas diagonales de $A$ son iguales.
Ahora, demostremos que $A$ es diagonal. En primer lugar, observe que $$ (A\gamma)^T = \gamma^T A^T = -\gamma A = -(A \gamma), $$ para que $A\gamma$ es simétrica, y por lo tanto $\langle v, A \gamma v \rangle = 0$ para todos $v \in \mathbb{R}^n$ . Pero ahora, por el lema 0, para cualquier $k \neq l$ existe $\gamma \in \Gamma(n)$ sea tal que $e_l = \gamma e_k$ para que $$ A_{kl} = \langle e_k, A e_l \rangle = \langle e_k, A \gamma e_k \rangle = 0. $$ Por lo tanto, $A$ es efectivamente diagonal.
Por último, dado que $A$ es diagonal con todas las entradas diagonales iguales, se deduce que $A = \alpha I_n$ para algunos $\alpha \in \mathbb{R}$ . QED
Lema 2: Supongamos que $n \geq 4$ . Entonces $\{B \in M_n(\mathbb{R}) \mid B = B^T, \; \forall \gamma \in \Gamma(n), \; B \gamma = -\gamma B\} = 0$ .
Prueba: Dejemos que $B$ sea una matriz de este tipo. En primer lugar, observemos que para cualquier $x \in \mathbb{R}^n$ , $$ \langle \gamma x, B \gamma x \rangle = -\langle \gamma x, \gamma B x \rangle = -\langle \gamma^\ast \gamma x , B x \rangle = - \langle x, A x \rangle. $$ Dejemos que $u \in \mathbb{R}^n$ sea un vector unitario. Como $n \geq 4 \geq 3$ , encontrar $v$ y $w \in \mathbb{R}^n$ tal que $\{u,v,w\}$ es ortonormal; por tanto, por el lema 0, hallemos $\gamma_{vu}$ , $\gamma_{wv}$ y $\gamma_{uw}$ tal que $$ v = \gamma_{vu}u, \quad w = \gamma_{wv} v, \quad u = \gamma_{uw} w. $$ Pero ahora, $$ \langle u, B u \rangle = \langle \gamma_{uw} w, B \gamma_{uw} w \rangle = - \langle w, B w \rangle = - \langle \gamma_{wv} v, B \gamma_{wv} v \rangle = \langle v, B v\rangle = \langle \gamma_{vu} u, B \gamma_{vu} u \rangle = - \langle u, B u \rangle, $$ para que $\langle u, B u \rangle = 0$ . Desde $u$ era un vector unitario arbitrario, se deduce que $\langle x, B x \rangle = 0$ para todos $x \in \mathbb{R}^n$ y, por tanto, que $B$ es simétrica. Como $B$ se asumió que era simétrica, esto implica por tanto que $B = 0$ . QED
Por último, supongamos que $U \in \mathcal{U}(n)$ . Entonces, para cualquier $\gamma \in \Gamma(n)$ , $U \gamma U^T$ es real, por lo que $$ U \gamma U^T = \overline{U \gamma U^T} = \overline{U} \gamma U^\ast, $$ y por lo tanto $$ U^T U \gamma = \gamma \overline{U^T U}. $$ Ahora, escribe $U^T U = A + iB$ , donde $A$ , $B \in M_n(\mathbb{R})$ ya que $U^T U$ es simétrica, también lo son $A$ y $B$ . Pero entonces, $$ 0 = U^T U \gamma - \gamma \overline{U^T U} = (A+iB)\gamma - \gamma(A-iB) = (A\gamma - \gamma A) + i (B\gamma + \gamma B), $$ para que desde $A$ , $B$ y $\gamma$ son todos reales, $$ A\gamma = \gamma A, \quad B \gamma = - \gamma B. $$ Por el lema 1, entonces, $A = \alpha I_n$ para algunos $\alpha \in \mathbb{R}$ mientras que por el lema 2, $B = 0$ . Por lo tanto, $U^T U = A = \alpha I_n$ ya que $U^T U$ es unitaria, por lo que se deduce que $\alpha = \pm 1$ . Pero entonces, como $U^T U = \pm I_n = \pm U^\ast U$ se deduce que $U^T = \pm U^\ast$ y, por tanto, que $\overline{U} = \pm U$ . Así, $U \in O(n)$ o $U \in iO(n)$ como se ha afirmado.
Ahora, consideremos el caso restante de $n = 2$ que podemos llevar a cabo explícitamente. Por un lado, se puede comprobar directamente que $$ \Gamma(2) = \{ \pm \gamma \}, \quad \gamma = \begin{pmatrix} 0 & 1 \\ -1 & 0 \end{pmatrix}, $$ para que $$ \mathcal{U}(2) = \{ U \in U(2) \mid U \gamma U^T = \pm \gamma \}. $$ Por lo tanto, dejemos que $U \in U(2)$ y escribir $U = \eta U_0$ para $\eta = \det(U) \in U(1)$ y $U_0 = \eta^{-1}U \in SU(2)$ . Por lo tanto, podemos escribir $$ U = \eta \begin{pmatrix} \alpha & -\overline{\beta} \\ \beta & \overline{\alpha} \end{pmatrix} $$ para $\alpha$ , $\beta \in \mathbb{C}$ con $|\alpha|^2 + |\beta|^2 = 1$ . Pero entonces, $$ U \gamma U^T = \eta \begin{pmatrix} \alpha & -\overline{\beta} \\ \beta & \overline{\alpha} \end{pmatrix} \begin{pmatrix} 0 & 1 \\ -1 & 0 \end{pmatrix} eta \begin{pmatrix} \alpha & \beta \\ -\overline{\beta} & \overline{\alpha} \end{pmatrix} = \eta^2 \begin{pmatrix} 0 & 1\\ -1 & 0 \end{pmatrix} = \eta^2 \gamma. $$ Por lo tanto, $U \in \mathcal{U}(2)$ sólo si $\eta^2 = \pm 1$ si y sólo si $\eta \in \{\pm 1, \pm i\}$ para que $$ \mathcal{U}(2) = \{ \eta U_0 \mid \eta \in \{\pm 1, \pm i\}, \; U_0 \in SU(2)\}. $$