4 votos

Idempotentes centrales de caracteres en álgebras de Frobenius (generalización de Lusztig arXiv:math/0208154v2 §19)

$\newcommand{\refone}{\textbf{(1)}} \newcommand{\Hom}{\operatorname{Hom}} \newcommand{\tr}{\operatorname{Tr}} \newcommand{\kk}{\mathbf{k}}$ Sea $\kk$ sea un campo. Sea $A$ ser un $\kk$ -que es finito-dimensional como una $\kk$ -espacio vectorial. Sea $\tau : A \to \kk$ ser un $\kk$ -mapa lineal. Definir a $\kk$ -forma bilineal $\left<\cdot, \cdot\right> : A \times A \to \kk$ por $\left< a, b\right> = \tau\left(ab\right)$ . Supongamos que esta forma $\left<\cdot, \cdot\right>$ es simétrica y no degenerada. Sea $\left(a_i\right)_{i \in I}$ et $\left(a'_i\right)_{i \in I}$ sean dos bases mutuamente duales de $A$ con respecto a esta forma (de modo que $\left<a_i, a'_j\right>$ es igual a $1$ siempre que $i = j$ et $0$ en caso contrario).

Los hechos: (Véanse a continuación las pruebas de estas afirmaciones).

(1) Tenemos $\sum\limits_{i\in I} a_i \tau\left(a'_i b\right) = \sum\limits_{i\in I} a'_i \tau\left(a_i b\right) = b$ para cada $b \in A$ .

(2) Tenemos $\sum\limits_{i\in I} a_i \tau\left(a'_i\right) = \sum\limits_{i\in I} a'_i \tau\left(a_i\right) = 1$ .

(3) El tensor $\sum\limits_{i\in I} a_i \otimes a'_i \in A \otimes A$ (sobre $\kk$ ) no depende de la elección de las bases $\left(a_i\right)_{i \in I}$ et $\left(a'_i\right)_{i \in I}$ .

(3') Para cualquier $b \in A$ tenemos $\sum\limits_{i\in I} b a_i \otimes a'_i = \sum\limits_{i\in I} a_i \otimes a'_i b$ .

(3'') Para cualquier $b \in A$ tenemos $\sum\limits_{i\in I} a_i b \otimes a'_i = \sum\limits_{i\in I} a_i \otimes b a'_i$ .

(4) Consideremos el espacio dual $A^*$ de $A$ como $A$ - $A$ -de la forma habitual (por tanto $\left(af\right)\left(b\right) = f\left(ba\right)$ et $\left(fa\right)\left(b\right) = f\left(ab\right)$ para todos $a \in A$ , $b \in A$ et $f \in A^*$ ). Sea $J : A \to A^*$ sea el mapa que envía cada $b \in A$ a la $\kk$ -mapa lineal $\beta : A \to \kk$ dado por $\beta\left(c\right) = \left<b,c\right>$ . Entonces, $J$ es un isomorfismo de $A$ - $A$ -bimódulos. Esto hace que $A$ en una llamada álgebra simétrica de Frobenius . (A la inversa, cualquier álgebra de Frobenius simétrica tiene una $\tau$ que cumplan las condiciones que impusimos a $\tau$ arriba).

A partir de ahora, que $E$ ser una izquierda $A$ -que es finito-dimensional como un $\kk$ -espacio vectorial. Para cada $x \in A$ , dejemos que $\tr_E x$ sea la traza del $\kk$ -endomorfismo de espacio vectorial de $E$ dada por la acción de $x$ en $E$ . Sea $\gamma_E$ sea el elemento $\sum\limits_{i\in I} \tr_E \left(a_i\right) a'_i$ de $A$ .

(5) Este elemento $\gamma_E$ no depende de la elección de las bases $\left(a_i\right)_{i \in I}$ et $\left(a'_i\right)_{i \in I}$ .

(6) Este elemento $\gamma_E$ se encuentra en el centro de $A$ .

(7) Si $E'$ es una simple izquierda $A$ -tal que $\Hom_A\left(E',E\right) = 0$ (esto ocurre, por ejemplo, si $E$ et $E'$ son simples no isomorfos $A$ -), entonces $\gamma_E E' = 0$ .

Pregunta:

¿Es cierto lo siguiente?

(8) Si $E$ es una simple izquierda $A$ -entonces el elemento $\gamma_E$ es cuasi-idempotente, lo que significa que $\gamma_E^2 = \lambda_E \gamma_E$ para algunos $\lambda_E \in \kk$ .

(9) Si $E$ es una simple izquierda $A$ -entonces la acción de $\gamma_E$ en $E$ es un múltiplo escalar del mapa de identidad.

Observaciones:

Un ejemplo de una situación como la descrita es cuando $A$ es el álgebra de grupo $\kk\left[G\right]$ de un grupo finito $G$ y $\tau$ es el mapa que envía cada elemento $a$ de esta álgebra de grupo al coeficiente de $1 \in G$ en $a$ . Entonces se puede tomar $\left(a_i\right)_{i\in I} = \left(g\right)_{g\in G}$ et $\left(a'_i\right)_{i\in I} = \left(g^{-1}\right)_{g\in G}$ . Esto funciona independientemente de si $A$ es semisimple o no.

La cuestión nació en mi intento de levantar la condición de "semisimple dividido" de la Proposición 19.2 de la obra de George Lusztig Álgebras de Hecke con parámetros desiguales (arXiv:math/0208154v2) . Específicamente estoy tratando de generalizar las partes (b) y (e) de dicha proposición; la parte (a) se generaliza trivialmente y las partes (c) y (d) no se generalizan tan lejos (al menos no se puede disponer de la semisimplicidad). Mi principal esperanza con esta pregunta es obtener una ruta alternativa a una pieza de la teoría de la representación (en concreto, fórmulas de ortogonalidad de caracteres) en una mayor generalidad de lo que se hace en los textos estándar, y de una manera ligera (sin requisitos de cierre algebraico, sin uso de Artin-Wedderburn, sin característica- $0$ suposiciones, y tal vez incluso permitiendo $\kk$ cualquier anillo conmutativo).

Obsérvese que las conjeturas (8) et (9) son fácilmente equivalentes. Posiblemente pueda mostrar (8) et (9) suponiendo que $A$ es semisimple, utilizando algo de teoría básica de Galois (reduciendo el problema al cierre algebraico de $\kk$ y allí aplicando Artin-Wedderburn); pero no he elaborado una prueba completa y para ser honesto no estoy interesado en hacerlo (ver mi motivación anterior).

Es no generalmente cierto que el escalar en (9) es distinto de cero.


Pruebas:

En aras de la exhaustividad, aquí están mis pruebas de los hechos anteriores.

(1) Cada $b \in A$ satisface $\sum\limits_{i\in I} a_i \left<a'_i, b\right> = b$ (ya que $\left(a_i\right)_{i \in I}$ et $\left(a'_i\right)_{i \in I}$ son dos bases mutuamente duales de $A$ ). Dado que $\left<a'_i, b\right> = \tau\left(a'_i b\right)$ esto se reescribe como $\sum\limits_{i\in I} a_i \tau\left(a'_i b\right) = b$ . El mismo argumento, con $\left(a_i\right)_{i \in I}$ et $\left(a'_i\right)_{i \in I}$ conmutada, muestra que $\sum\limits_{i\in I} a'_i \tau\left(a_i b\right) = b$ para cada $b \in A$ (porque ser bases duales con respecto a una forma bilineal simétrica es una relación simétrica). Esto demuestra que (1) .

(2) Esto se deduce de establecer $b = 1$ en (1) .

(4) La definición de $J$ muestra que $\left(J\left(b\right)\right)\left(c\right) = \left<b, c\right>$ para todos $b \in A$ et $c \in A$ .

El mapa $J$ es inyectiva. (De hecho, si $b \in A$ es tal que $J\left(b\right) = 0$ entonces cada $c \in A$ satisface $\left<b, c\right> = \underbrace{\left(J\left(b\right)\right)}_{=0}\left(c\right) = 0$ de donde $b = 0$ (por la no degeneración de la forma $\left<\cdot, \cdot\right>$ ).) También es fácil ver que el mapa $J$ es $\kk$ -lineal (ya que la forma $\left<\cdot, \cdot\right>$ es $\kk$ -bilineal).

Cada $a \in A$ , $b \in A$ et $c \in A$ satisfacer

$\left(a J\left(b\right)\right) \left(c\right) = \left(J\left(b\right)\right) \left(ca\right) = \left<b, ca\right>$ (según la definición de $J$ )

$= \tau\left(bca\right) = \left<bc, a\right> = \left<a, bc\right> $ (por la simetría de la forma $\left<\cdot,\cdot\right>$ )

$= \tau\left(abc\right)$

y

$\left(J\left(ab\right)\right) \left(c\right) = \left< ab, c\right> = \tau\left(abc\right)$ .

Por lo tanto, cada $a \in A$ , $b \in A$ et $c \in A$ satisfacer $\left(a J\left(b\right)\right) \left(c\right) = \tau\left(abc\right) = \left(J\left(ab\right)\right) \left(c\right)$ . En otras palabras, cada $a \in A$ et $b \in B$ satisfacer $a J\left(b\right) = J\left(ab\right)$ . Por lo tanto, el mapa $J$ queda $A$ -lineal. Un argumento similar (¡pero más sencillo!) muestra que $J$ es correcto $A$ -lineal. Por lo tanto, $J$ es un $A$ - $A$ -homomorfismo bimodular. Dado que $J : A \to A^*$ es $\kk$ -lineal e inyectiva, concluimos que $J$ es un $\kk$ -(ya que $A$ et $A^*$ son de dimensión finita $\kk$ -de la misma dimensión). Por lo tanto, $J$ es un $A$ - $A$ -(ya que $J$ es un $A$ - $A$ -homomorfismo bimodular). Esto demuestra (4) .

(3) Sea $\rho : A \otimes A \to \kk$ sea el $\kk$ -inducido por el $\kk$ -mapa bilineal $\left<\cdot,\cdot\right> : A\times A \to \kk$ (según la propiedad universal de un producto tensorial). Por lo tanto, $\rho\left(b\otimes c\right) = \left<b, c\right>$ para todos $b \in A$ et $c \in A$ . Sea $J$ sea como en la reivindicación (4) .

Desde $A$ es una dimensión finita $\kk$ -podemos identificar $\left(A\otimes A\right)^*$ con $A^* \otimes A^*$ . Así, por ejemplo, $\left(J \otimes J\right) \left(\sum\limits_{i\in I} a_i \otimes a'_i\right) \in A^* \otimes A^*$ se convierte en un elemento de $\left(A\otimes A\right)^*$ es decir, un $\kk$ -mapa lineal $A \otimes A \to \kk$ .

Ahora, cada $b \in A$ et $c \in A$ satisfacer

$\underbrace{\left(\left(J \otimes J\right) \left(\sum\limits_{i\in I} a_i \otimes a'_i\right)\right)}_{=\sum\limits_{i\in I} J\left(a_i\right) \otimes J\left(a'_i\right)} \left(b \otimes c\right) = \left(\sum\limits_{i\in I} J\left(a_i\right) \otimes J\left(a'_i\right)\right) \left(b \otimes c\right)$

$= \sum\limits_{i\in I} \underbrace{\left(J\left(a_i\right)\right)\left(b\right)}_{= \left<a_i, b\right>} \otimes \underbrace{\left(J\left(a'_i\right)\right)\left(c\right)}_{= \left<a'_i, c\right> = \tau\left(a'_i c\right)} = \sum\limits_{i\in I} \left<a_i, b\right> \otimes \tau\left(a'_i c\right)$

$= \sum\limits_{i\in I} \left<a_i, b\right> \tau\left(a'_i c\right)$ (ya que estamos identificando $\kk \otimes \kk$ con $\kk$ )

$= \left<\underbrace{\sum\limits_{i\in I} a_i \tau\left(a'_i c\right)}_{= c \text{ (by }\refone{ )}}, b\right> = \left<c, b\right> = \left<b, c\right>$ (ya que la forma $\left<\cdot,\cdot\right>$ es simétrico)

$= \rho\left(b \otimes c\right)$ .

En otras palabras, los dos $\kk$ -mapas lineales $\left(J \otimes J\right) \left(\sum\limits_{i\in I} a_i \otimes a'_i\right)$ et $\rho$ son idénticos en cada tensor puro. Por lo tanto, estos dos $\kk$ -Los mapas lineales deben ser iguales. Por lo tanto, $\left(J \otimes J\right) \left(\sum\limits_{i\in I} a_i \otimes a'_i\right) = \rho$ . Desde $J \otimes J$ es un isomorfismo (porque también lo es $J$ ), tenemos $\sum\limits_{i\in I} a_i \otimes a'_i = \left(J \otimes J\right)^{-1} \left(\rho\right)$ y, por tanto $\sum\limits_{i\in I} a_i \otimes a'_i \in A \otimes A$ (sobre $\kk$ ) no depende de la elección de las bases $\left(a_i\right)_{i \in I}$ et $\left(a'_i\right)_{i \in I}$ . Esto demuestra (3) .

(3') Sea $J$ sea como en la reivindicación (4) . Sea $b \in A$ . Cada $c \in A$ et $d \in A$ satisfacer

$\underbrace{\left(\left(J \otimes J\right) \left(\sum\limits_{i\in I} b a_i \otimes a'_i\right)\right)}_{= \sum\limits_{i\in I} J\left(b a_i\right) \otimes J\left(a'_i\right)} \left(c \otimes d\right) = \left(\sum\limits_{i\in I} J\left(b a_i\right) \otimes J\left(a'_i\right)\right) \left(c \otimes d\right)$

$= \sum\limits_{i \in I} \underbrace{\left(J\left(b a_i\right)\right)\left(c\right)}_{= \left< b a_i, c\right> = \tau\left(b a_i c\right)} \otimes \underbrace{\left(J\left(a'_i\right)\right)\left(d\right)}_{= \left< a'_i, d\right> = \tau\left(a'_i d\right)} = \sum\limits_{i \in I} \tau\left(b a_i c\right) \otimes \tau\left(a'_i d\right)$

$= \sum\limits_{i\in I} \tau\left(b a_i c\right) \tau\left(a'_i d\right)$ (ya que estamos identificando $\kk \otimes \kk$ con $\kk$ )

$= \tau\left(b \underbrace{\sum\limits_{i\in I} a_i \tau\left(a'_i d\right)}_{= d \text{ (by }\refone{ )}} c\right) = \tau\left(bdc\right)$

y

$\underbrace{\left(\left(J \otimes J\right) \left(\sum\limits_{i\in I} a_i \otimes a'_i b\right)\right)}_{= \sum\limits_{i\in I} J\left(a_i\right) \otimes J\left(a'_i b\right)} \left(c \otimes d\right) = \left(\sum\limits_{i\in I} J\left(a_i\right) \otimes J\left(a'_i b\right)\right) \left(c \otimes d\right)$

$= \sum\limits_{i \in I} \underbrace{\left(J\left(a_i\right)\right)\left(c\right)}_{= \left< a_i, c\right> = \tau\left(a_i c\right)} \otimes \underbrace{\left(J\left(a'_i b\right)\right)\left(d\right)}_{= \left< a'_i b, d\right> = \tau\left(a'_i b d\right)} = \sum\limits_{i \in I} \tau\left(a_i c\right) \otimes \tau\left(a'_i b d\right)$

$= \sum\limits_{i\in I} \tau\left(a_i c\right) \tau\left(a'_i b d\right)$ (ya que estamos identificando $\kk \otimes \kk$ con $\kk$ )

$= \tau\left(\underbrace{\sum\limits_{i\in I} a_i \tau\left(a'_i b d\right)}_{= b d \text{ (by }\refone \text{, applied to } bd \text{ instead of } b \text{)}}\right) = \tau\left(bdc\right)$ .

Así, cada $c \in A$ et $d \in A$ satisfacer $\left(\left(J \otimes J\right) \left(\sum\limits_{i\in I} b a_i \otimes a'_i\right)\right) \left(c \otimes d\right) = \tau\left(bdc\right) = \left(\left(J \otimes J\right) \left(\sum\limits_{i\in I} a_i \otimes a'_i b\right)\right) \left(c \otimes d\right)$ .

En otras palabras, los dos $\kk$ -mapas lineales $\left(J \otimes J\right) \left(\sum\limits_{i\in I} b a_i \otimes a'_i\right)$ et $\left(J \otimes J\right) \left(\sum\limits_{i\in I} a_i \otimes a'_i b\right)$ son idénticos en cada tensor puro. Por lo tanto, estos dos $\kk$ -los mapas lineales deben ser iguales. Por lo tanto, $\left(J \otimes J\right) \left(\sum\limits_{i\in I} b a_i \otimes a'_i\right) = \left(J \otimes J\right) \left(\sum\limits_{i\in I} a_i \otimes a'_i b\right)$ . Desde $J \otimes J$ es un isomorfismo (porque también lo es $J$ ), tenemos $\sum\limits_{i\in I} b a_i \otimes a'_i = \sum\limits_{i\in I} a_i \otimes a'_i b$ . Esto demuestra (3') .

(3'') Se puede demostrar (3'') de forma similar a (3') (con un pequeño giro: hay que utilizar la simetría de $\left< \cdot, \cdot \right>$ en un paso). Pero alternativamente podemos demostrar (3'') utilizando (3') como sigue: Fijar $b \in A$ . Ser bases duales con respecto a una forma bilineal simétrica es una relación simétrica. Por lo tanto, $\left(a'_i\right)_{i\in I}$ et $\left(a_i\right)_{i\in I}$ son dos bases mutuamente duales de $A$ con respecto a la forma $\left<\cdot, \cdot\right>$ . Por lo tanto, aplicando (3') a $a'_i$ et $a_i$ en lugar de $a_i$ et $a'_i$ obtenemos $\sum\limits_{i\in I} b a'_i \otimes a_i = \sum\limits_{i\in I} a'_i \otimes a_i b$ . Aplicación de la $\kk$ -mapa lineal $A \otimes A, \ x \otimes y \mapsto y \otimes x$ a ambos lados de esta igualdad, obtenemos $\sum\limits_{i\in I} a_i \otimes b a'_i = \sum\limits_{i\in I} a_i b \otimes a'_i$ . Esto demuestra (3'') .

(5) Sea $\tr_E^{(1)}$ denotan el $\kk$ -mapa lineal $A \otimes A \to A$ enviando cada $b \otimes c$ a $\tr_E\left(b\right) c$ . (Esto está claramente bien definido.) Entonces, $\gamma_E = \sum\limits_{i\in I} \tr_E \left(a_i\right) a'_i$ es la imagen del tensor $\sum\limits_{i\in I} a_i \otimes a'_i \in A \otimes A$ bajo el mapa $\tr_E^{(1)}$ . Dado que dicho tensor no depende de la elección de las bases $\left(a_i\right)_{i \in I}$ et $\left(a'_i\right)_{i \in I}$ (por (3) ), lo mismo debe ocurrir con $\gamma_E$ . Esto demuestra (5) .

(6) Por cada $b \in A$ tenemos $\gamma_E = \sum\limits_{i\in I} \tr_E \left(a_i\right) a'_i$ y así

$\left< \gamma_E, b\right> = \left< \sum\limits_{i\in I} \tr_E \left(a_i\right) a'_i, b\right> = \sum\limits_{i\in I} \tr_E \left(a_i\right) \left<a'_i, b\right> = \tr_E \left(\sum\limits_{i\in I} a_i\underbrace{\left<a'_i, b\right>}_{= \tau\left(a'_i b\right)}\right) $

(10) $= \tr_E \left(\underbrace{\sum\limits_{i\in I} a_i \tau\left(a'_i b\right)}_{= b \text{ (by }\refone\text{)}}\right) = \tr_E \left(b\right) $ .

Ahora bien, si $u$ et $v$ son dos elementos de $A$ entonces

$\left<\gamma_E u, v\right> = \tau\left(\gamma_E u v\right) = \left< \gamma_E, uv\right> = \tr_E \left(uv\right)$ (por (10) )

$ = \tr_E \left(vu\right)$ (ya que dos endomorfismos cualesquiera $\alpha$ et $\beta$ de una dimensión finita $\kk$ -espacio vectorial satisfacen $\tr\left(AB\right) = \tr\left(BA\right)$ )

$ = \left< \gamma_E, vu\right>$ (de nuevo por (10) )

$ = \left< vu, \gamma_E\right>$ (ya que $\left<\cdot,\cdot\right>$ es simétrico)

$ = \tau\left(vu\gamma_E\right) = \left< v, u \gamma_E\right> = \left< u\gamma_E, v\right>$ (ya que $\left<\cdot,\cdot\right>$ es simétrica).

Dado que la forma $\left<\cdot,\cdot\right>$ es no degenerado, esto demuestra que $\gamma_E u = u \gamma_E$ para cada $u \in A$ . En otras palabras, el elemento $\gamma_E$ de $A$ es central. Esto demuestra (6) .

(7) Esta prueba es algo rara y no estoy seguro de que me guste. Sea $E'$ sea una simple izquierda $A$ -tal que $\Hom_A\left(E',E\right) = 0$ .

En primer lugar,

(11) si $F$ es cualquier derecha $A$ -módulo, entonces el derecho $A$ -módulo $F$ es isomorfo a un cociente de la derecha $A$ -módulo $A$ .

Para demostrarlo, dejemos que $F$ ser cualquier derecho simple $A$ -módulo. Entonces, $F$ es distinto de cero (porque es simple). Fijar cualquier $x \in F$ (como $x$ existe, ya que $F$ es distinto de cero). Entonces, el mapa $A \to F$ enviando cada $b \in A$ a $xb$ es correcto $A$ -lineal; su imagen es, por tanto, un $A$ -submódulo de $F$ . Dado que el único $A$ -submódulos de $F$ son $0$ et $F$ se obtiene que la imagen de este mapa es $0$ o $F$ . Pero no puede ser $0$ ya que contiene $x1 = x \neq 0$ (la imagen de $1$ bajo este mapa). Por lo tanto, debe ser $F$ de modo que este mapa es suryectivo. Por lo tanto, hemos encontrado un $A$ -mapa lineal $A \to F$ por lo tanto, $F$ es isomorfo a un cociente de la derecha $A$ -módulo $A$ . Esto demuestra (11) .

De forma similar a (11) , podemos ver que:

(12) si $F$ es cualquier izquierda simple $A$ -módulo, entonces la izquierda $A$ -módulo $F$ es isomorfo a un cociente de la izquierda $A$ -módulo $A$ .

Sabemos que $E'$ es una simple izquierda $A$ -de modo que (12) muestra que $E'$ es isomorfo a un cociente de la izquierda $A$ -módulo $A$ . Por lo tanto, $\dim_{\kk} E' \leq \dim_{\kk} A < \infty$ . Por lo tanto, el dual $E'^*$ de $E'$ es un simple derecho $A$ -(porque $E'$ es una simple izquierda $A$ -módulo). Así pues, podemos aplicar (11) a $F = E'^*$ y concluir que el derecho $A$ -módulo $E'^*$ es isomorfo a un cociente de la derecha $A$ -módulo $A$ . Dualizando de nuevo (podemos hacerlo porque $\dim_{\kk} E' \leq \dim_{\kk} A < \infty$ ), concluimos que la izquierda $A$ -módulo $E'$ es isomorfo a un submódulo de la izquierda $A$ -módulo $A^*$ . Puesto que la izquierda $A$ -módulo $A^*$ es isomorfo a la izquierda $A$ -módulo $A$ (por el mapa $J$ como (4) ), se obtiene que la izquierda $A$ -módulo $E'$ es isomorfo a un submódulo de la izquierda $A$ -módulo $A$ . Dado que la afirmación que queremos demostrar es invariante bajo isomorfismo de $E'$ podemos suponer que $E'$ es un submódulo de la izquierda $A$ -módulo $A$ . Supongamos esto.

Sea $w \in E'$ et $u \in A$ . Vamos a demostrar que $\left<\gamma_E w, u\right> = 0$ . Para ello, comprobemos primero que $wuv = 0$ para cada $v \in E$ .

De hecho $v \in E$ . Entonces, $guv \in E$ para cada $g \in E'$ (porque $E$ es una izquierda $A$ -módulo). Por lo tanto, podemos definir un $A$ -mapa lineal $E' \to E$ enviando cada $g \in E'$ a $guv$ . Este mapa pertenece a $\Hom_A\left(E',E\right) = 0$ y, por tanto, es cero. En otras palabras, $guv = 0$ para cada $g \in E'$ . Aplicado a $g = w$ se obtiene $wuv = 0$ .

Ahora, olvida que arreglamos $v \in E$ . Hemos demostrado que $wuv = 0$ para cada $v \in E$ . En otras palabras, $wu \in A$ actúa como $0$ a la izquierda $A$ -módulo $E$ . En concreto, se obtiene $\tr_E \left(wu\right) = 0$ .

Ahora,

$\left<\gamma_E w, u\right> = \tau\left(\gamma_E w u\right) = \left<\gamma_E, wu\right> = \tr_E\left(wu\right)$ (por (10) aplicado a $b = wu$ )

$= 0$ .

Olvida que arreglamos $u$ . Hemos demostrado que $\left<\gamma_E w, u\right> = 0$ para cada $u \in A$ . Por lo tanto, $\gamma_E w = 0$ (ya que la forma $\left<\cdot,\cdot\right>$ es no degenerado). Dado que esto es válido para todos los $w \in E'$ se obtiene $\gamma_E E' = 0$ y así (7) está demostrado.

5voto

Shannon Nelson Puntos 1364

En el caso de un álgebra de grupo (finito) $A$ y creo (los argumentos necesarios están al menos implícitos en mi artículo "On projective summands of induced modules") en esta mayor generalidad, se puede ver que si $E$ es un simple $A$ -y $M$ es cualquier dimensión finita $A$ -entonces la dimensión de $\gamma_{E}M$ es (la dimensión de $E$ ) \times (el número de sumandos indecomponibles de $M$ es isomorfa a la cubierta proyectiva de $E).$ Así que creo que la respuesta a la pregunta 8 es sí; por simple $E,$ el elemento $\gamma_{E}$ cuadrará a cero a menos que $E$ es a su vez proyectiva y simple. Si $E$ es proyectiva y simple, entonces $\gamma_{E}$ es un múltiplo unitario de un idempotente central. Esto también parece responder a la pregunta 9. En general, cada $\gamma_{E}$ (para $E$ ) aniquila el radical de Jacobson $J(A),$ y el $ \sum_{ {\rm simple} E} \gamma_{E}A$ es el zócalo de la regular $A$ -que es isomorfo como $A$ -módulo a $A/J(A).$

3voto

Resa Puntos 11

Creo que deberías consultar el capítulo 7 del libro de Geck y Pfeiffer "Characters of Finite Coxeter Groups and Iwahori-Hecke Algebras". En él se explican muchas propiedades de las álgebras simétricas en un entorno bastante general (por ejemplo, sobre un anillo conmutativo). Para tus propósitos, creo que el lema de Geschütz-Ikeda puede ser importante y está relacionado con lo que dice Geoff (véase 7.1.11 en Geck-Pfeiffer).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X