5 votos

¿Qué transformaciones lineales preservan estas condiciones?

Pregunta principal

Definamos $\Gamma(n)$ como el conjunto de matrices antisimétricas reales de tamaño $n$ ( $n$ es un número entero par), cumpliendo: $$ \forall \gamma\in \Gamma(n) \Rightarrow \gamma^2=-\mathbb I_n$$ donde $\mathbb I_n$ es la matriz de identidad de tamaño $n$ . ¿Cuál es una buena representación del conjunto de todos los operadores lineales que mantienen las matrices dentro de $\Gamma(n)$ ? $$\gamma_{i,j}\to \gamma'_{i,j} = \sum_{i',j'=1}^n \gamma_{i',j'}\beta_{i,i'}\beta_{j,j'}$$ donde $\beta \in \mathbb C^{n^2}$ .

Por ejemplo, sé que si $\gamma\to \gamma'=U\gamma U^\dagger$ , donde $U$ es una matriz unitaria entonces claramente $$\gamma'^2=U\gamma U^\dagger U\gamma U^\dagger=U\gamma^2 U^\dagger=-U\mathbb I_n U^\dagger=-\mathbb I_n$$ pero no sé qué matrices unitarias preservan la antisimetría de una matriz.


Antecedentes

El trasfondo está muy relacionado con la física, así que pensé que debía separarlo de la pregunta principal. El $\gamma$ Las matrices con las que estoy tratando se llaman Matrices de Covarianza(CMs); y en el caso de este problema se definen como $$\gamma_{l,m}=\frac{i}{2}\text{tr}(\rho[c_l,c_m])$$ donde $\rho$ es la matriz de densidad de un estado gaussiano puro, $c$ son operadores de modo de Majorana que cumplen $\{c_l,c_m\}=2\delta_{l,m}$ y $[\_,\_]$ ( $\{\_,\_\}$ ) es un (anti)conmutador.

Además, la condición $\gamma^2=-\mathbb I_n$ se satisface si el estado $\rho$ es puro [1] .

2voto

Jan D. Puntos 316

Observe que $\Gamma(n)$ es el conjunto de todos los reales $n \times n$ matrices ortogonales de simetría sesgada, es decir $$ \Gamma(n) = O(n) \cap \mathfrak{o}(n) \cap M_n(\mathbb{R}), $$ y que $$ \mathcal{U}(n) := \{U \in U(n) \mid U\Gamma(n)U^T \subset \Gamma(n)\}. $$ Afirmo que $$ \mathcal{U}(n) = \begin{cases} \{ \eta U_0 \mid \eta \in \{\pm 1, \pm i\}, \; U_0 \in SU(2)\} &\text{if $ n=2 $,}\\ O(n) \cup iO(n) &\text{if $ n \geq 4 $.} \end{cases} $$

Consideremos primero el caso en el que $n \geq 4$ .

En primer lugar, observe que si $O \in O(n)$ entonces para cualquier $\gamma \in \Gamma(n)$ , $O \gamma O^T$ y $(iO)\gamma(iO)^T = -O \gamma O^T$ siguen siendo reales, sesgadas y ortogonales, por lo que $\mathcal{U}(n) \supset O(n) \cup iO(n)$ . Por lo tanto, basta con demostrar la inclusión inversa, $\mathcal{U}(n) \subset O(n)\cup iO(n)$ . Para ello, sin embargo, necesitaremos los siguientes lemas.

Lema 0: Dejemos que $v$ , $w \in \mathbb{R}^n$ sean vectores unitarios ortogonales. Entonces existe algún $\gamma_{wv} \in \Gamma(n)$ tal que $w = \gamma_{wv} v$ (y por lo tanto $v = -\gamma_{wv} w$ ).

Prueba: Dejemos que $e_1 = v$ y $e_2 = w$ y completa $\{e_1,e_2\}$ a una base ortonormal $\{e_1,e_2,\dotsc,e_n\}$ de $\mathbb{R}^n$ . Entonces $\gamma_{vw} \in \Gamma(n)$ definido por $$ \gamma_{wv} e_{2k+1} = e_{2k+2}, \quad \gamma_{vw} e_{2k+2} = -e_{2k+1}, \quad 0 \leq k \leq \frac{n-2}{2} $$ es una matriz real ortogonal sesgada tal que $w = \gamma_{wv} v$ según sea necesario. QED

Lema 1: $\{A \in M_n(\mathbb{R}) \mid A = A^T, \; \forall \gamma \in \Gamma(n), \; A \gamma = \gamma A\} = \mathbb{R}I_n$ .

Prueba: Dejemos que $A$ sea una matriz de este tipo. Sea $\{e_1,\dotsc,e_n\}$ sea la base ordenada estándar de $\mathbb{R}^n$ .

Demostremos primero que las entradas diagonales de $A$ son todos iguales. En primer lugar, observe que para cualquier $v \in \mathbb{R}^n$ , $$ \langle \gamma v, A \gamma v \rangle = \langle \gamma v, \gamma A v \rangle = \langle \gamma^T \gamma v, A v \rangle = \langle v, A v \rangle. $$ Pero ahora, por el lema 0, para cualquier $k \neq l$ existe $\gamma \in \Gamma(n)$ sea tal que $e_l = \gamma e_k$ para que $$ A_{ll} = \langle e_l, A e_l \rangle = \langle \gamma e_k, A \gamma e_k \rangle = \langle e_k, A e_k \rangle = A_{kk}. $$ Por lo tanto, efectivamente, todas las entradas diagonales de $A$ son iguales.

Ahora, demostremos que $A$ es diagonal. En primer lugar, observe que $$ (A\gamma)^T = \gamma^T A^T = -\gamma A = -(A \gamma), $$ para que $A\gamma$ es simétrica, y por lo tanto $\langle v, A \gamma v \rangle = 0$ para todos $v \in \mathbb{R}^n$ . Pero ahora, por el lema 0, para cualquier $k \neq l$ existe $\gamma \in \Gamma(n)$ sea tal que $e_l = \gamma e_k$ para que $$ A_{kl} = \langle e_k, A e_l \rangle = \langle e_k, A \gamma e_k \rangle = 0. $$ Por lo tanto, $A$ es efectivamente diagonal.

Por último, dado que $A$ es diagonal con todas las entradas diagonales iguales, se deduce que $A = \alpha I_n$ para algunos $\alpha \in \mathbb{R}$ . QED

Lema 2: Supongamos que $n \geq 4$ . Entonces $\{B \in M_n(\mathbb{R}) \mid B = B^T, \; \forall \gamma \in \Gamma(n), \; B \gamma = -\gamma B\} = 0$ .

Prueba: Dejemos que $B$ sea una matriz de este tipo. En primer lugar, observemos que para cualquier $x \in \mathbb{R}^n$ , $$ \langle \gamma x, B \gamma x \rangle = -\langle \gamma x, \gamma B x \rangle = -\langle \gamma^\ast \gamma x , B x \rangle = - \langle x, A x \rangle. $$ Dejemos que $u \in \mathbb{R}^n$ sea un vector unitario. Como $n \geq 4 \geq 3$ , encontrar $v$ y $w \in \mathbb{R}^n$ tal que $\{u,v,w\}$ es ortonormal; por tanto, por el lema 0, hallemos $\gamma_{vu}$ , $\gamma_{wv}$ y $\gamma_{uw}$ tal que $$ v = \gamma_{vu}u, \quad w = \gamma_{wv} v, \quad u = \gamma_{uw} w. $$ Pero ahora, $$ \langle u, B u \rangle = \langle \gamma_{uw} w, B \gamma_{uw} w \rangle = - \langle w, B w \rangle = - \langle \gamma_{wv} v, B \gamma_{wv} v \rangle = \langle v, B v\rangle = \langle \gamma_{vu} u, B \gamma_{vu} u \rangle = - \langle u, B u \rangle, $$ para que $\langle u, B u \rangle = 0$ . Desde $u$ era un vector unitario arbitrario, se deduce que $\langle x, B x \rangle = 0$ para todos $x \in \mathbb{R}^n$ y, por tanto, que $B$ es simétrica. Como $B$ se asumió que era simétrica, esto implica por tanto que $B = 0$ . QED

Por último, supongamos que $U \in \mathcal{U}(n)$ . Entonces, para cualquier $\gamma \in \Gamma(n)$ , $U \gamma U^T$ es real, por lo que $$ U \gamma U^T = \overline{U \gamma U^T} = \overline{U} \gamma U^\ast, $$ y por lo tanto $$ U^T U \gamma = \gamma \overline{U^T U}. $$ Ahora, escribe $U^T U = A + iB$ , donde $A$ , $B \in M_n(\mathbb{R})$ ya que $U^T U$ es simétrica, también lo son $A$ y $B$ . Pero entonces, $$ 0 = U^T U \gamma - \gamma \overline{U^T U} = (A+iB)\gamma - \gamma(A-iB) = (A\gamma - \gamma A) + i (B\gamma + \gamma B), $$ para que desde $A$ , $B$ y $\gamma$ son todos reales, $$ A\gamma = \gamma A, \quad B \gamma = - \gamma B. $$ Por el lema 1, entonces, $A = \alpha I_n$ para algunos $\alpha \in \mathbb{R}$ mientras que por el lema 2, $B = 0$ . Por lo tanto, $U^T U = A = \alpha I_n$ ya que $U^T U$ es unitaria, por lo que se deduce que $\alpha = \pm 1$ . Pero entonces, como $U^T U = \pm I_n = \pm U^\ast U$ se deduce que $U^T = \pm U^\ast$ y, por tanto, que $\overline{U} = \pm U$ . Así, $U \in O(n)$ o $U \in iO(n)$ como se ha afirmado.

Ahora, consideremos el caso restante de $n = 2$ que podemos llevar a cabo explícitamente. Por un lado, se puede comprobar directamente que $$ \Gamma(2) = \{ \pm \gamma \}, \quad \gamma = \begin{pmatrix} 0 & 1 \\ -1 & 0 \end{pmatrix}, $$ para que $$ \mathcal{U}(2) = \{ U \in U(2) \mid U \gamma U^T = \pm \gamma \}. $$ Por lo tanto, dejemos que $U \in U(2)$ y escribir $U = \eta U_0$ para $\eta = \det(U) \in U(1)$ y $U_0 = \eta^{-1}U \in SU(2)$ . Por lo tanto, podemos escribir $$ U = \eta \begin{pmatrix} \alpha & -\overline{\beta} \\ \beta & \overline{\alpha} \end{pmatrix} $$ para $\alpha$ , $\beta \in \mathbb{C}$ con $|\alpha|^2 + |\beta|^2 = 1$ . Pero entonces, $$ U \gamma U^T = \eta \begin{pmatrix} \alpha & -\overline{\beta} \\ \beta & \overline{\alpha} \end{pmatrix} \begin{pmatrix} 0 & 1 \\ -1 & 0 \end{pmatrix} eta \begin{pmatrix} \alpha & \beta \\ -\overline{\beta} & \overline{\alpha} \end{pmatrix} = \eta^2 \begin{pmatrix} 0 & 1\\ -1 & 0 \end{pmatrix} = \eta^2 \gamma. $$ Por lo tanto, $U \in \mathcal{U}(2)$ sólo si $\eta^2 = \pm 1$ si y sólo si $\eta \in \{\pm 1, \pm i\}$ para que $$ \mathcal{U}(2) = \{ \eta U_0 \mid \eta \in \{\pm 1, \pm i\}, \; U_0 \in SU(2)\}. $$

2voto

Chris Ballance Puntos 17329

Tras una serie de intercambios en la sección de comentarios, el OP ha aclarado que la verdadera pregunta es la siguiente:

Dejemos que $n$ sea un número par y $\Gamma(n)\subset M_n(\mathbb R)$ sea el conjunto de todos los $n\times n$ raíces cuadradas antisimétricas reales de $-I_n$ . Encontrar todas las matrices unitarias (complejas) $\beta$ de manera que el mapeo $\gamma\mapsto\beta\gamma\beta^\top$ (Nota: no $\gamma\mapsto\beta\gamma\beta^\dagger$ aunque $\beta$ puede ser complejo) conserva $\Gamma(n)$ .

Demostraremos lo siguiente.

  • Cuando $n\ge4$ las matrices necesarias vienen dadas por las siguientes $\beta$ s tal que $\beta$ o $i\beta$ es una matriz ortogonal real.
  • Cuando $n=2$ las matrices necesarias vienen dadas por las siguientes $\beta$ s tal que $\beta$ o $i\beta$ es de la forma $$ \pmatrix{z\,\cos t&-\bar{w}\,\sin t\\ w\,\sin t&\bar{z}\,\cos t}, $$ donde $t$ es un número real arbitrario y $z,w$ son números complejos arbitrarios de módulos unitarios.

Prueba para $n\ge4$ . Dejemos que $\mathcal K$ denota el espacio lineal real de todas las matrices antisimétricas reales. Definir $h=\beta^\top\beta$ . Entonces $h$ es unitaria y la condición $(\beta\gamma\beta^\top )^2 = -I$ implica que $h\gamma = \gamma h^{-1} = \gamma \bar{h}^\top$ . Desde $\mathcal K$ es el tramo lineal real de $\Gamma(n)$ se deduce que $$ hk = k\bar{h}^\top\tag{1} $$ por cada $k$ en $\mathcal K$ . Denote por $E_{ij}$ la matriz con un $1$ en el $(i,j)$ -ésima posición y ceros en el resto. Al considerar todos los $k$ s de la forma $E_{ij}-E_{ji}$ y comparar ambos lados de $(1)$ elemental, es fácil ver que $h$ es un múltiplo real de la matriz identidad (que $n>2$ es esencial aquí). Sin embargo, $h$ es unitaria. Por lo tanto, $h=\beta^\top \beta=\pm I$ .

Si $\beta^\top \beta=I$ ya que $\beta$ también es unitario, tenemos $\beta^\top \beta=I=\beta^\dagger \beta$ . Por lo tanto, $\beta^\top=\beta^\dagger$ es decir $\beta$ es real. Por lo tanto, $\beta$ es ortogonal real.

Si $\beta^\top \beta=-I$ entonces $(i\beta)^\top(i\beta)=I$ y $i\beta$ también es unitaria. Por lo tanto, el mismo argumento muestra que $i\beta$ es ortogonal real.

Prueba para $n=2$ . El conjunto $\Gamma(2)$ tiene sólo dos elementos, a saber, $g=\pmatrix{0&-1\\ 1&0}$ y $-g$ . Si el mapeo $f:\gamma\mapsto\beta\gamma\beta^\top$ conserva $\Gamma(n)$ , ya sea $\beta g\beta^\top=g$ (y $f$ es el mapa de identidad) o $\beta g\beta^\top=-g$ (y $-f$ es el mapa de identidad). En este último caso, tenemos $(i\beta) g(i\beta)^\top=g$ por lo que basta con considerar sólo el primer caso. Dado que $\beta$ es unitaria, la condición $\beta g\beta^\top=g$ equivale a $\beta g=g\bar{\beta}$ . Comparando elementalmente ambos lados de esta igualdad y también ambos lados de $\beta\beta^\dagger = I$ El resultado es el siguiente.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X