37 votos

¿Por qué el determinante de una matriz simpléctica es 1?

Supongamos que $A \in M_{2n}(\mathbb{R})$ . y $$J=\begin{pmatrix} 0 & E_n\\ -E_n&0 \end{pmatrix}$$ donde $E_n$ representa la matriz de identidad.

si $A$ satisface $$AJA^T=J.$$

Cómo averiguar $$\det(A)=1~?$$

Mi enfoque:

He tratado de separar $A$ en cuatro submarcas: $$A=\begin{pmatrix}A_1&A_2 \\A_3&A_4 \end{pmatrix}$$ y debo añadir un supuesto que $A_1$ es invertible. por transfromación elemental: $$\begin{pmatrix}A_1&A_2 \\ A_3&A_4\end{pmatrix}\rightarrow \begin{pmatrix}A_1&A_2 \\ 0&A_4-A_3A_1^{-1}A_2\end{pmatrix}$$

que tenemos: $$\det(A)=\det(A_1)\det(A_4-A_3A_1^{-1}A_2).$$ Desde $$\begin{pmatrix}A_1&A_2 \\ A_3&A_4\end{pmatrix}\begin{pmatrix}0&E_n \\ -E_n&0\end{pmatrix}\begin{pmatrix}A_1&A_2 \\ A_3&A_4\end{pmatrix}^T=\begin{pmatrix}0&E_n \\ -E_n&0\end{pmatrix}.$$ obtenemos dos igualdades: $$A_1A_2^T=A_2A_1^T$$ y $$A_1A_4^T-A_2A_3^T=E_n.$$

entonces $$\det(A)=\det(A_1(A_4-A_3A_1^{-1}A_2)^T)=\det(A_1A_4^T-A_1A_2^T(A_1^T)^{-1}A_3^T)=\det(A_1A_4^T-A_2A_1^T(A_1^T)^{-1}A_3^T)=\det(E_n)=1,$$

pero no tengo ni idea de cómo tratar este problema cuando $A_1$ no es invertible.

1 votos

Otra observación: Usted puede asumir que $A_1$ es invertible ya que puede ser aproximado por matrices invertibles.

0 votos

El grupo simpléctico está generado por generadores de Chevalley, cada uno de ellos de determinante 1. Por lo tanto, cada elemento del grupo simpléctico tiene determinante 1. Una prueba similar a las operaciones fila-columna se da aquí arxiv.org/pdf/1504.03794.pdf

22voto

rck Puntos 121

Primero, tomando el determinante de la condición $$ \det AJA^T = \det J \implies \det A^TA = 1 $$ usando eso $\det J \neq 0$ . Esto implica inmediatamente $$ \det A = \pm 1$$ si $A$ tiene un valor real. La forma más rápida, si la conoces, de demostrar que el determinante es positivo es a través de la Pfaffian de la expresión $A J A^T = J$ .

1 votos

¿Coincide el "argumento pfaffiano" con mi respuesta?

1 votos

@Andrew: básicamente, sí. Gracias por escribirlo.

0 votos

¿Hay alguna manera de conectar el hecho de que las matrices simétricas sesgadas tengan determinante positivo con el hecho de que sean el álgebra de Lie de $SO(n)$ ?

20voto

Yang Zhou Puntos 718

Permítame primero replantear su pregunta de una manera algo más abstracta. Dejemos que $V$ sea un espacio vectorial real de dimensión finita. Una forma simpática es una 2 forma $\omega\in \Lambda^2(V^\vee)$ que es no degenerado en el sentido de que $\omega(x,y)=0$ para todos $y\in V$ implica que $x=0$ . $V$ junto con tal especificación $\omega$ La 2 forma no degenerada se llama espacio simpléctico. Se puede demostrar que $V$ debe ser de dimensión uniforme, digamos, $2n$ .

Un operador lineal $T:V\to V$ se dice que es una transformación simpléctica si $\omega(x,y)=\omega(Tx,Ty)$ para todos $x,y\in V$ . Esto es lo mismo que decir $T^*\omega=\omega$ . Lo que quiere demostrar es que $T$ es la conservación de la orientación. Ahora afirmo que $\omega^n\neq 0$ . Esto se puede demostrar eligiendo una base $\{a_i,b_j|i,j=1,\ldots,n\}$ tal que $\omega(a_i,b_j)=\delta_{ij}$ y $\omega(a_i,a_j)=\omega(b_i,b_j)=0$ para todos $i,j=1,\ldots,n $ . Entonces $\omega=\sum_ia_i^\vee\wedge b_i^\vee$ , donde $\{a_i^\vee,b_j^\vee\}$ es la base dual. Podemos calcular $\omega^n=n!a_1^\vee\wedge b_1^\vee\wedge\dots\wedge a_n^\vee \wedge b_n^\vee$ que es claramente distinto de cero.

Ahora permítanme hacer una digresión para hablar de los determinantes. Dejemos que $W$ sea un espacio vectorial n-dimensional y $f:W\to W$ sea lineal. Entonces tenemos mapas inducidos $f_*:\Lambda^n(W)\to \Lambda^n(W)$ . Desde $\Lambda^n(W)$ es unidimensional, $f_*$ es la multiplicación por un número. Esto es sólo el determinante de $f$ . Y el mapa dual $f^*:\Lambda^n(W^\vee)\to \Lambda^n(W^\vee)$ es también la multiplicación por el determinante de $f$ .

Desde $T^*(\omega^n)=\omega^n$ podemos ver a partir del argumento anterior que $\det(T)=1$ . El punto clave aquí es que la forma simpática $\omega$ dan una orientación canónica del espacio, a través de la parte superior desde $\omega^n$ .

0 votos

Corrección: Un simpático para es un alternando dos formas ...

9voto

d.r Puntos 11

Hay una prueba fácil para el caso real y complejo que no requiere el uso de pfaffianos. Esta prueba apareció por primera vez en un texto chino. Véase http://arxiv.org/abs/1505.04240 para la referencia.

Reproduzco aquí la prueba del caso real. El enfoque se extiende a las matrices complejas simplécticas.

Tomando el determinante de ambos lados de $A^T J A = J$ , $$\det(A^T J A) = \det(A^T) \det(J) \det(A) = \det(J).$$ Así que inmediatamente tenemos que $\det(A) = \pm 1$ .

Entonces consideremos la matriz $A^TA + I.$ Desde $A^TA$ es simétrica positiva definida,
sus valores propios son reales y mayores que $1$ Por lo tanto, su determinante, siendo el producto de sus valores propios, tiene $\det(A^TA +I) > 1$ .

Ahora como $\det(A) \ne 0$ , $A$ es invertible. Usando esto podemos escribir $$ A^TA + I = A^T( A + A^{-T}) = A^T(A + JAJ^{-1}).$$ Denote los cuatro $N \times N$ subbloques de $A$ de la siguiente manera, $$ A = \begin{bmatrix} A_{11} & A_{12} \\ A_{21} & A_{22} \end{bmatrix}, \text{ where } A_{11},A_{12},A_{21},A_{22} \in \mathbb{R}^{N \times N}. $$ A continuación, calculamos $$ A + JAJ^{-1} = \begin{bmatrix} A_{11} & A_{12} \\ A_{21} & A_{22} \end{bmatrix} + \begin{bmatrix} O & I_N \\ -I_N & O \end{bmatrix} \begin{bmatrix} A_{11} & A_{12} \\ A_{21} & A_{22} \end{bmatrix} \begin{bmatrix} O & - I_N \\ I_N & O \end{bmatrix} = \begin{bmatrix} A_{11} & A_{12} \\ A_{21} & A_{22} \end{bmatrix} + \begin{bmatrix} A_{22} & -A_{21} \\ -A_{12} & A_{11} \end{bmatrix} = \begin{bmatrix} A_{11}+ A_{22} & A_{12} - A_{21} \\ - A_{12}+ A_{21} & A_{11} + A_{22} \end{bmatrix}.$$ Escribir los bloques como $C := A_{11} + A_{22}$ y $D:= A_{12} - A_{21}$ , hacemos uso de una transformada unitaria $$ A + JAJ^{-1} = \begin{bmatrix} C & D \\ -D & C \end{bmatrix} = \frac{1}{\sqrt{2}}\begin{bmatrix} I_N & I_N \\ iI_N & -iI_N \end{bmatrix} \begin{bmatrix} C + i D & O \\ O & C - i D \end{bmatrix} \frac{1}{\sqrt{2}} \begin{bmatrix} I_N & -iI_N \\ I_N & iI_N \end{bmatrix}. $$ Introducimos esta factorización en nuestra identidad. Obsérvese que $C,D$ son ambos reales. Esto permite que la conjugación compleja conjugación compleja conmute con el determinante (ya que es un polinomio de sus entradas) $$0 < 1 < \det(A^TA + I) = \det(A^T(A + JAJ^{-1})) \\ = \det(A) \det(C + i D) \det(C - iD) \\ = \det(A) \det(C + i D) \det\left(\overline{C + iD}\right)\\ = \det(A) \det(C + iD) \overline{\det(C + iD)} = \det(A) \left\lvert \det(C + iD)\right\rvert^2. $$ Claramente, ninguno de los dos determinantes en el lado derecho puede ser cero, por lo que podemos concluir $\left\lvert \det(C + iD) \right\rvert^2 > 0$ . Dividiendo esto por ambos lados, tenemos $\det(A) > 0$ y por lo tanto $\det(A) = 1$ .

8voto

Homer Puntos 198

El determinante es una función continua, y el conjunto de matrices simplécticas con invertibles $A_1$ es denso en el conjunto de todas las matrices simplécticas. Así que si has demostrado que es igual a 1 para todas las invertibles $A_1$ entonces es igual a 1 para todos los $A_1$ .

1 votos

Hola @Ted, ¿tienes alguna referencia para esta afirmación? Tengo una prueba sencilla de que el determinante de una matriz simpléctica es igual a 1 para todas las invertibles $A_1$ pero no tengo ni idea de cómo demostrar que el conjunto de matrices simplécticas con invertibles $A_1$ es denso en el conjunto de todas las matrices simplécticas.

1 votos

@William Parece que ahora no puedo reconstruir el argumento y tal vez no era tan fácil como pensaba cuando escribí esto. Un método puede ser empezar con el hecho de que la matriz bloque (1 B ; 0 1) (donde B es simétrica) y su transpuesta son ambas matrices simplécticas. Así que por multiplicación a la izquierda y a la derecha, para cualquier $A_1$ también podemos obtener todo $A_1 + B A_3$ y $A_1 + A_2 B$ en la esquina superior izquierda.

0 votos

¿Quizás debería plantear esto como una pregunta separada para que si recuerdas el argumento más tarde puedas obtener más reconocimiento por ello? Lleva a un argumento muy bonito y limpio para demostrar el resultado global, ya que la prueba de que el determinante es 1 cuando $A_1$ tiene un determinante distinto de cero es muy sencillo.

0voto

Toda matriz simpléctica es el producto de dos matrices simplécticas con el ángulo inferior izquierdo invertible. Véase: M. de Gosson, s Symplectic Geometry and Quantum Mechanics, Birkhäuser, Basel, serie "Operator Theory: Advances and Applications" (subserie: "Advances in Partial Differential Equations"), Vol. 166 (2006)

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X