8 votos

Centralizadores en GL(n,p)

Parece que hay varias formas canónicas racionales. Lo mejor de las normas es que hay muchas para elegir. Sin embargo, la norma que elijo parece tener un centralizador difícil de describir.

1) ¿Existe una referencia que elija una forma canónica racional específica (ojalá bonita) y calcule su centralizador (ojalá bonito)?

Alternativamente,

2) ¿Existe una descripción bonita del centralizador de mi elección de forma canónica?

Las matrices están sobre campos conmutativos (normalmente primos finitos).

Cada matriz es similar a una suma directa de matrices cuyo polinomio mínimo es de la forma irr ^ pow, para algún polinomio irreducible irr y algún entero positivo pow. Aunque hay cierto desacuerdo sobre cómo organizar esto, una idea común es tener formas canónicas asociadas a los pares [ irr, pow ], (la otra es agrupar irr coprimos: ¿es Z/2Z × Z/3Z o es Z/6Z? elegimos Z/2Z × Z/3Z).

Así que dado un par [ irr, pow ], he visto dos formas principales de asociar el bloque canónico: o bien tomar "la" matriz compañera de irr^pow, o bien tomar una matriz diagonal de bloques con pow igual a la matriz compañera de irr, y luego rellenar con 1s en la sub/sup diagonal que usaste para la matriz compañera. La primera establece más claramente una descomposición directa no descomponible, pero oculta una serie de composición. La segunda expone más sutilmente la descomposición directa de la suma, pero deja muy clara la serie de composición. Ambas son bastante bonitas. En caso de que irr tenga grado 1, entonces el segundo es un bloque de Jordan, y el primero no.

Así que elegí esto último. Por ejemplo, si irr = x 2 x1 es irreducible y pow = 3, entonces obtenemos el bloque B:

`B = $\begin{bmatrix} .&1&.&.&.&.\\% 1&1&1&.&.&.\\% .&.&.&1&.&.\\% .&.&1&1&1&.\\% .&.&.&.&.&1\\% .&.&.&.&1&1\\% \end{bmatrix}$

Si es una raíz de x 2 x1, entonces esperaba que este tipo fuera la explosión de b:

`b = $\begin{bmatrix} \alpha&1&.\\ .&\alpha&1\\ .&.&\alpha\\ \end{bmatrix}$

y por lo tanto esperaba que cualquier matriz escalar (ampliada) estuviera en el centralizador de B, ya que está en el centralizador de b. En otras palabras, la matriz a

`a = $\begin{bmatrix} \alpha&.&.\\ .&\alpha&.\\ .&.&\alpha\\ \end{bmatrix}$

centraliza b, por lo que esperaba la matriz A:

`A = $\begin{bmatrix} .&1&.&.&.&.\\% 1&1&.&.&.&.\\% .&.&.&1&.&.\\% .&.&1&1&.&.\\% .&.&.&.&.&1\\% .&.&.&.&1&1\\% \end{bmatrix}$

para centralizar B, pero por supuesto AB BA. Para cualquier B particular, uno puede simplemente resolver un montón de ecuaciones, pero al menos a mí las soluciones no me parecen fáciles de describir algorítmicamente. Me preocupa que hayamos querido la forma canónica un poco más fea que es en realidad la ampliación de b:

$\tilde B = \begin{bmatrix} .&1&1&.&.&.\\% 1&1&.&1&.&.\\% .&.&.&1&1&.\\% .&.&1&1&.&1\\% .&.&.&.&.&1\\% .&.&.&.&1&1\\% \end{bmatrix}$

Sin embargo, no he encontrado esta forma en ninguna referencia, y me gustaría tener una referencia razonable a la que apuntar para justificar mis elecciones (especialmente si eligen matrices más feas y menos dispersas).

1) Qué referencia utiliza $\tilde B$ como la forma canónica racional de B?

O bien:

2) ¿Dónde están los "escalares" en el centralizador de B?

Preferiría usar B, pero si ni siquiera puedo ver las matrices escalares en esta forma, entonces me parece una forma muy pobre.

Para los curiosos, la otra forma canónica principal de B es:

$\hat B = \begin{bmatrix} .&1&.&.&.&.\\% .&.&1&.&.&.\\% .&.&.&1&.&.\\% .&.&.&.&1&.\\% .&.&.&.&.&1\\% 1&3&0&-5&0&3\\% \end{bmatrix}$

Es bonito, pero también no es evidente cuáles son sus factores de composición. Esta forma (junto con la agrupación de factores irreducibles al estilo de Z/6Z) es utilizada por GP/Pari. Las transposiciones y las agrupaciones alternativas de factores permiten una gran variedad de formas canónicas.

La mejor respuesta abordará la facilidad de escribir explícitamente los generadores del centralizador de B sobre un campo primo finito dado sólo (irr,pow), o abordará tanto la escritura de la forma canónica de (irr,pow) como el centralizador. Una respuesta inductiva podría preferir permitir campos no primos, pero la generalidad añadida a costa de la claridad y los algoritmos explícitos no me resulta útil.

Editar: Tanto B como $\hat B$ tienen la agradable propiedad de que, dado un generador w para el módulo indecomponible sobre el que actúa el operador original M, es fácil encontrar una base que realice la matriz. Para B es v i \= wM j irr(M) k donde i1 = kdeg(irr) + j y 0 j < deg(irr), para i = 1, 2, deg(irr)pow. Para $\hat B$ esto es v i \= wM i1 para i = 1, 2, deg(irr)pow.

Para utilizar $\tilde B$ Necesito una comprensión explícita similar de la base que lo define.

1) ¿Cómo se expresa una base de k[x]/(irr^pow) en términos del coset de 1 tal que el operador correspondiente a x tenga la forma $\tilde B$ es decir, un bloque de Toeplitz con la diagonal la matriz compañera de irr, la superdiagonal una identidad, y las otras diagonales 0?

Por supuesto, sigo teniendo curiosidad por la 2. Creo que una respuesta a la 1 proporcionaría una respuesta a la 2 y sería suficiente, incluso sin una referencia explícita, para terminar la respuesta de Robin Chapman a la 1.

7voto

Marcio Aguiar Puntos 6715

Para empezar, el uso aceptado de "forma canónica racional" en la literatura es para una suma diagonal $C(f_1)\oplus C(f_2)\oplus\cdots\oplus C(f_k)$ donde $C(f_i)$ es la matriz de acompañamiento de un polinomio mónico $f$ y $f_1\mid f_2\mid\cdots\mid f_k$ . Dicho esto, si necesitara encontrar un centralizador explícitamente no es la forma canónica que elegiría.

Como siempre debemos pensar en $V=k^n$ como $k[X]$ -módulo donde $X$ actúa a través de $A$ . Si el polinomio mínimo de $A$ es $u_1^{a_1}\cdots u_k^{a_k}$ con el $p_i$ irreducibles distintos entonces $V$ divisiones únicamente en una suma directa de submódulos $M_1\oplus\cdots\oplus M_k$ , donde $M_i$ es aniquilado por una potencia de $u_i$ . Ambos $A$ y ts centralizador fijan cada $M_i$ por lo que podemos reducir al caso en que el polinomio mínimo $u^a$ con $u$ irreducible.

Dejemos que $u$ tener un título $r$ y que $C\in M_r(k)$ sea la matriz compañera de $u$ o cualquier conjugado para ello. Afirmo que $A$ es conjugado a una suma diagonal de ``Bloques tipo Jordan'' como $$J=\left(\begin{matrix} C&I&O&O\\\ O&C&I&O\\\ O&O&C&I\\\ O&O&O&C \end{matrix}\right).$$ Sólo se trata de comprobar que esto tiene el mínimo polinomio $u^a$ . Como estamos trabajando en $GL(n,p)$ entonces $C\ne0$ y sobre un campo finito entonces la diagonal suma de copias de $C$ es un polinomio en $A$ (De hecho $A^{p^rs}$ para que sea adecuado $s$ ). Así, cada matriz en el centralizador de $A$ tiene una descomposición en bloques en $r$ -por- $r$ bloques que conmutan con $C$ y por lo tanto son polinomios en $C$ . Entonces, encontrar el centralizador de $A$ es equivalente a encontrar el centralizador de la matriz $A'$ en $k'=k(\alpha)$ donde $\alpha$ es un cero de $u$ y $A'$ se obtiene al sustituyendo los bloques de tipo Jordan anteriores por bloques de tipo Jordan estándar $$J'=\left(\begin{matrix} \alpha&1&0&0\\\ 0&\alpha&1&0\\\ 0&0&\alpha&1\\\ 0&0&0&\alpha \end{matrix}\right).$$ El centralizador de $A'$ es el mismo que el de $A'-\alpha I$ que es una matriz muy dispersa. En esta etapa sólo encontraría el centralizador en la matriz matriz por cálculo explícito y extraer los elementos no singulares como el centralizador en el grupo de matrices.

Añadido (6/6/2010) Afirmé que $J$ tenía el polinomio mínimo $u^a$ . Sea $k'=k(\alpha)$ . La matriz $J'$ da la acción de $x$ en un estándar $k'$ -base para la $k'[x]$ -Módulo $k'[x]/((x-\alpha)^a)$ . Por lo tanto, $J$ da la acción de $x$ en un $k$ -base para $k'[x]/((x-\alpha)^a)$ considerado como un $k[x]$ -módulo. Para ver que $J$ tiene un polinomio mínimo $u^a$ basta con demostrar que algún elemento de $k'[x]/((x-\alpha)^a)$ tiene aniquilador $u^a$ en $k[x]$ . Pero el elemento $1$ tiene annilhator $(x-\alpha)^a k'[x]$ en $k'[x]$ y también el aniquilador $k[x]\cap (x-\alpha)^a k'[x]=u^a k[x]$ en $k[x]$ , proporcionado la extensión $k'/k$ es separable (por lo que $x-\alpha$ no es un factor repetido factor de $u$ ).

Así que la afirmación es válida para campos finitos, pero no necesariamente para campos generales campos de característica primera. Sería interesante resolver los detalles para polinomios irreducibles inseparables.

0voto

user3710 Puntos 51

Aquí está la parte 1″ resuelta, pero la respuesta es compleja y demasiado larga para un comentario o edición. La notación es similar pero no idéntica a la anterior:

Sea f un polinomio separable e irreducible de grado d. Sea B la matriz de bloques-Toeplitz cuyos bloques diagonales son la matriz compañera de f, cuyos primeros bloques superdiagonales son la matriz identidad, y cuyos otros bloques son 0. Sea b el número de bloques diagonales. Sea { v i : i = 1,...,b*d } sea la base estándar. Queremos expresar cada v i para i≥2 en términos de v 1 En términos de módulos k[x], B es la acción de x sobre el módulo M = k[x]/(f^b) en la base donde v 1 \= 1 + (f^b), y v i son polinomios desconocidos relacionados con f y b.

La matriz dice explícitamente que v i ⋅B = v i+1 + v i+d cuando d no divide a i-1. Esto se puede resolver:

v i+1 \= v i ⋅B - v i+d para d que no divide a i-1

que se puede iterar para expresar:

v k⋅d+i+1 \= v k⋅d+1 ⋅B i - i⋅v (k+1)⋅d+1 ⋅B i-1 para k un número entero no negativo e i un número entero positivo.

En particular, una vez que conocemos v k⋅d+1 para k=0,...,b-1, conocemos la base completa. Si sólo deseamos que nuestra matriz sea triangular por bloques con los bloques diagonales correctos, entonces podemos elegir estos vectores base libremente entre los generadores de los submódulos (f^k)/(f^b) ≤ M. En otras palabras, podemos elegirlos libremente del espacio nulo de f^k siempre que no estén en el espacio nulo de f^(k+1).

Sea w k \= v k⋅d+1 . Para obtener exactamente los bloques correctos por encima de la diagonal utilizamos la relación

$$\sum_{k=0}^{b-1} w_{(k+K)} \cdot \frac{(-1)^k}{k!} f^{(k)}(B) = 0$$

donde extendemos w k \= 0 para k ≥ b, y K es cualquier número entero no negativo. Aquí necesitamos una derivada reducida f (k) (x) / (k!) que se puede escribir sin dividir, por lo que es válido incluso para la característica que divide a k!

Esta relación nos permite resolver w k+1 en términos de w k y w k+i para i ≥ 2. Esto requiere la división por f′(B), por lo que f debe ser separable. Para resolver esta recurrencia, me pareció más fácil resolver de w b-1 volver a w 2 para evitar las soluciones circulares. Si b o d son pequeños (digamos ≤ 3), esto se puede hacer fácilmente a mano, pero más allá de esto los resultados se ven mejor como algoritmos recursivos más que como fórmulas explícitas.

Por ejemplo, si Min(b-1,d) ≤ 2, entonces:

w k+1 \= w k ⋅ f(B) / f′(B)

y si Min(b-1,d) ≤ 3, entonces:

w k+1 \= w k ⋅ f(B) / ( f′(B) - f(B)⋅f″(B) / ( 2⋅f′(B) )

La siguiente expresión es bastante larga.

Parece extraño que dos de las otras formas canónicas tengan bases tan bonitas, mientras que ésta codifica la serie de Taylor de f. En términos de polinomios, la base para d=2, b=3 es:

{ 1, x - f/f′, f/f′, x⋅f/f′ - (f/f′) 2 , (f/f′) 2 , x⋅(f/f′) 2 }

Creo que esto significa que sería difícil entender cómo se incrustan los escalares en mi forma canónica originalmente preferida, a menos que b o d fueran bastante pequeños.

Me parece que cuando f no es separable, la matriz B sigue teniendo el polinomio mínimo correcto, pero que las distintas formas canónicas no tienen por qué ser conjugadas. En particular, para f(x)=x 2 -t sobre Z/2Z(t), parece plausible que la matriz compañera de f 2 no es conjugada con la matriz diagonal en bloque llamada "B" en esta respuesta.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X