6 votos

Imagen del determinante en el grupo de matrices simpléctico/ortogonales

Sea $\mathbb K$ sea un campo, $n\geq 1$ y $G=GL_n({\mathbb K})$ sea el grupo de los invertibles $n \times n$ matrices con coeficientes en $\mathbb K$ . Para $J\in G$ podemos definir (por analogía con los grupos matriciales ortogonales&simplécticos)

$$ H=\lbrace M \in G | {}^tMJM=J\rbrace $$

Se trata de un subgrupo de $G$ y el determinante define un homomorfismo $H \to \lbrace -1,1\rbrace$ (porque $({\sf det} M)^2=1$ para cualquier $M\in H$ tomando determinantes en la ecuación anterior). Así que la imagen de este homomorfismo es $\lbrace 1 \rbrace$ (trivial) o $\lbrace -1,1\rbrace$ (completo).

En algunos casos (por ejemplo $\mathbb K=\mathbb R$ y $J=I_n$ : entonces $H$ es el grupo de matrices ortogonales), la imagen es completa (por ejemplo, ${\sf diag}(1,-1)$ tiene determinante $-1$ ).

En otros (como cuando $J$ es como en este pregunta reciente Math.stackexchange ), la imagen es trivial.

La pregunta (obvia) es: ¿para qué $J$ ¿la imagen es trivial o completa?

3voto

GmonC Puntos 114

Asumiré $K$ no tiene la característica $2$ .

Si $M$ satisface ${}^t\!MJM=J$ entonces, aplicando la transposición a la ecuación, se tiene también ${}^t\!M\,{}^t\!JM={}^t\!J$ . Por lo tanto, si denotamos por $H_J$ el grupo definido por $J$ se comprueba fácilmente que $H_J=H_{J_S}\cap H_{J_A}$ donde $J_S=J+{}^t\!J$ es una simetrización de $J$ y $J_A=J-{}^t\!J$ una antisimetrización. Por lo tanto, la respuesta puede deducirse de que para los casos en que $J$ es simétrico (el caso ortogonal) y donde $J$ es antisimétrico (el caso simpléctico). Sin embargo $J$ ya no es necesariamente invertible aquí, por lo que hay que considerar el radical de la forma bilineal definida por $J$ también (si los radicales de $J_S$ y $J_A$ tienen una intersección no trivial, ni siquiera se garantiza que $\det M=\pm1$ pero esto no debería ocurrir si el $J$ es invertible).

[Un posible análisis es el siguiente. Siempre que se pueda descomponer el espacio en una suma directa que sea ortogonal para las dos formas bilineales definidas por $J_A$ y $J_S$ entonces se pueden definir endomorfismos independientemente en los dos factores. En particular, si las intersecciones de los radicales de $J_A$ y $J_S$ no es trivial, será ortogonal para ambas formas a cualquier subespacio complementario, por lo que podemos hacer lo que queramos en esta intersección y la identidad en el factor complementario, y así ver que se puede conseguir cualquier determinante distinto de cero en este caso. Por otro lado, si el radical de $J_A$ es trivial, entonces tenemos un subgrupo del grupo simpléctico definido por $J_A$ y sólo el determinante $1$ se puede obtener. Para el caso restante $R$ sea el radical de $J_A$ (por lo que tenemos $\dim R>0$ ), y $C$ su complemento ortogonal para la forma ortogonal definida por $J_S$ . Puede ser que $R$ y $C$ tienen una intersección no trivial, que es el radical de la restricción de la forma ortogonal a $R$ ; en ese caso, dejemos que $R'\subseteq R$ sea un subespacio complementario en $R$ de $R\cap C$ y $C'\supseteq C$ el complemento ortogonal de $J_S$ de $R'$ . Entonces se puede comprobar que todo el espacio es la suma directa de $R'$ y $C'$ ortogonal para ambas formas. Ahora bien, si $\dim R'>0$ es decir, si $C\not\subseteq R$ entonces se puede elegir una transformación ortogonal de $R'$ con determinante $-1$ y la identidad en $C'$ demostrando que $-1$ se produce como determinante. En el caso restante $R$ se encuentra en $C$ ambos son subespacios estables para cualquier $M$ bajo consideración, y la forma ortogonal induce una dualidad entre $R$ y $V/C$ por lo que el determinante de $M$ es el de la transformación de $C/R$ que induce. Si la forma simpléctica induce una forma simpléctica no degenerada en este subcociente (por ejemplo cuando $R=C$ ) entonces $\det M=1$ siempre. Si no tenemos un espacio $C/R$ que lleva inducidas formas ortogonales y simplécticas, teniendo esta última un radical no trivial; volvemos a la situación inicial pero con una dimensión menor, por lo que podemos continuar como arriba hasta llegar a decidir si $-1$ se produce como determinante o no.

3voto

Jonik Puntos 7937

Respuesta incompleta, pero hasta ahora la única propuesta. Sirve para el caso simpléctico, pero no para el mixto.

En este informe técnico de 2003 de D. Steven Mackey y Niloufer Mackey. Da pruebas usando descomposiciones estructuradas, incluso usando transvecciones simplécticas (la prueba a la que aludí en los comentarios), pero también una prueba más antigua y relativamente elemental pero no bien conocida (para mí) usando el Pfaffian. En esta entrada del blog por Suresh Govindarajan.

Pfaffianos para matrices antisimétricas

Se puede dar una demostración elemental utilizando un determinante mejor: el Pfaffian . Para una matriz asimétrica, $-J={}^tJ$ el Pfaffiano es un escalar $p$ tal que $p^2 = \det(J)$ y se transforma naturalmente bajo transformaciones de similitud: $\newcommand{\Pfaffian}{\operatorname{Pf}}\Pfaffian( {}^tMJM ) = \det(M) \Pfaffian(J)$ . El resultado se deduce ahora puesto que $\Pfaffian( {}^tMJM ) = \Pfaffian( J ) \neq 0$ ya que $\Pfaffian(J)^2 = \det(J) \neq 0$ por hipótesis.

Una identidad útil para el pfaffiano que se aplica mejor al $J$ mencionado en la otra pregunta es: $$\Pfaffian\left(\begin{smallmatrix} 0 & {}^tA \\ -A & 0 \end{smallmatrix}\right) = (-1)^{n(n-1)/2} \det(A)$$ para que puedas ver que el Pfaffiano intenta factorizar el determinante de toda la matriz (que es $\det(A)^2$ ) en términos de uno de sus bloques.

No es difícil ver que si $-J={}^tJ$ entonces $n$ es par. En el caso impar, aún se podría tener un mixto $J$ , ni simétrico ni anti-simétrico, y sería muy curioso si el determinante está restringido a +1 solamente.

impar-case es fácil

Si $J$ es cualquier $(2n+1)\times(2n+1)$ matriz, entonces ${}^t M J M = J$ donde $M=-I$ y $\det(M)=-1$ . La característica clave de las matrices simplécticas (invertibles) es que sólo existen en dimensiones pares. En dimensiones Impares siempre obtenemos una imagen completa de $\det$ .

Esto sigue dejando el caso mixto en dimensiones pares.

2voto

user15381 Puntos 32

Otra respuesta incompleta . Observación 1 : cuando $J$ puede escribirse como dos o más bloques, y al menos uno de esos bloques tiene dimensión impar, p. ej.

$$J=\left(\begin{smallmatrix} A & 0 \\ 0 & B \end{smallmatrix}\right) $$

donde $A$ y $B$ son cuadrados $a\times a$ y $b \times b$ submatrices con $b$ impar, entonces tenemos un $M$ del determinante $-1$ : $M={\sf diag}(I_{a},-I_{b})$ .

Observación 2 : El problema es invariante por congruencia : si ponemos

$$ {\Gamma}_J=\lbrace M \in G | {}^tMJM=J\rbrace $$ ,

entonces tenemos para cualquier invertible $P$ la identidad

$$ M \in {\Gamma}_{{}^tPJP} \Leftrightarrow P^{-1}MP \in {\Gamma}_{J} $$

Desafortunadamente, mientras que una base de invariantes polinómicos es bien conocida en el caso de matrices similares (los coeficientes del polinomio característico), no sé si tal base se conoce siquiera para la relación de congruencia. Este papel estudia "formas normales" para la relación de congruencia.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X