79 votos

¿Por qué los personajes se portan tan bien?

El año pasado asistí a un primer curso de teoría de la representación de grupos finitos, en el que todo era sobre C. Me llamó la atención, y me desconcertó un poco, la inexplicable perfección de los caracteres como herramienta para estudiar las representaciones de un grupo; clasifican los módulos hasta el isomorfismo, los caracteres de los módulos irreducibles forman una base ortonormal para el espacio de las funciones de clase, y otros hechos por el estilo.

A mí los caracteres me parecen un objeto de estudio arbitrario (¿por qué tomar la traza y no cualquier otro coeficiente del polinomio característico?), y nunca he visto que se dé ninguna intuición para su desarrollo que no sea "probamos esto, y funciona de maravilla". La prueba de las relaciones de ortogonalidad es elemental pero, para mí, no arroja ninguna luz; entiendo el buen comportamiento de los caracteres con respecto a las sumas directas y los productos tensoriales, y comprendo su conveniencia, pero está claro que eso no es todo lo que ocurre aquí. Así que, mi pregunta: ¿hay alguna razón de alto nivel por la que los caracteres de grupo son tan mágicos como lo son, o es todo una mera coincidencia? ¿O simplemente soy incapaz de ver lo bien motivada que está la prueba de ortogonalidad?

4voto

Vetle Puntos 413

Por si sirve de algo, yo tenía exactamente la misma pregunta que tú y elaboré la prueba que esboza Noé con cierto detalle aquí aunque no utilice la palabra "proyección" explícitamente.

4voto

Dave Penneys Puntos 3064

Un poco sin relación, pero no por ello menos interesante:

Un álgebra de von Neumann finita es un álgebra de von Neumann junto con una traza, es decir, un funcional lineal que es

  • positivo ( $tr(a^*a)\geq 0$ para todos $a$ )
  • fieles ( $tr(a^*a)=0$ implica $a=0$ )
  • normalizado ( $tr(1)=1$ )
  • tracial ( $tr(ab)=tr(ba)$ )

Esta traza lo hace casi todo para un álgebra de von Neumann finita. Nos da la representación estándar de $M$ en $L^2(M)$ el predual $L^1(M)$ y la no conmutativa $L^p$ -espacios. En un factor finito (centro trivial), nos da un ordenamiento total sobre las proyecciones (para un $II_1$ -factor, da una versión "continua" de lo que dice Ben). Si tenemos una inclusión de álgebras de von Neumann finitas $N\subset M$ obtenemos una expectativa condicional canónica $E\colon M\to N$ que es una de las herramientas básicas. Si son subfactores, si obtenemos un rastro en $M_1$ podemos iterar la construcción básica (de forma agradable). La lista continúa...

¿Qué tiene que ver todo esto con los grupos? Pues que las álgebras de von Neumann son exactamente los conmutadores de las representaciones de grupos (unitarios). Además, a partir de una representación unitaria de grupo, podemos formar su álgebra de von Neumann regular izquierda $L(G)$ que es la forma más fácil de construir un ejemplo de $II_1$ -(el grupo debe tener todas las clases de conjugación infinitas que no sean la de la identidad). Además, el estudio de $II_1$ -subfactores generaliza el estudio de la teoría de la representación, incluyendo la inducción-restricción, etc. (véase La pregunta de Kate ).

Básicamente, cada vez que veo un álgebra, me pregunto si tiene un rastro. Así que desde mi punto de vista, o con esta retrospectiva debería decir, ¡no me sorprende que los personajes lo hagan todo!

2voto

dmazzoni Puntos 6586

Para añadir al comentario de D. Savitt: Dado $g \in G$ ( $G$ un grupo finito), el elemento $\rho(g) \in GL(V)$ es diagonalizable sobre los números complejos ya que su polinomio mínimo es separable. Más concretamente, es un divisor de $x^n - 1$ para algunos $n$ -- una vez que se tiene el polinomio mínimo, se pueden calcular los operadores de proyección a los distintos eigenspaces como polinomios en $\rho(g)$ pero, por lo general, esto requerirá coeficientes complejos y trabajar en un campo que no es algebraicamente completo sólo le permitirá proyectarse al núcleo de factores irreducibles.

Ahora bien, una matriz diagonal está determinada hasta la conjugación por sus valores propios. Y como se ha señalado $\mbox{tr } \rho(g^k)$ da la suma de $k$ potencias de los valores propios. A partir de estos números, se puede recuperar el conjunto de valores propios de la matriz. Se puede demostrar esto con funciones simétricas, pero también se puede ver el espectro como una medida, y ver $\mbox{tr } \rho(g^k)$ como el momento k (complejo) / coeficiente de Fourier de la medida. Estos números, junto con sus conjugados complejos, dan todos los coeficientes de Fourier. Son periódicos, por lo que no se necesitan todos (se podría aplicar Stone Weierstrass, pero sería un gran desperdicio). Ya conocemos los que son finitos (digamos, $n$ ) los valores propios candidatos a partir del hecho de que satisfacen $z^n - 1 = 0$ por lo que podemos diseñar fácilmente un polinomio que desaparezca en todos los valores propios menos en uno y así determinar la multiplicidad de cada valor propio. A saber: $f(z) = \prod_{i \neq j} (z - \lambda_i)$ . Entonces $\mbox{tr } f( \rho(g) )$ (la traza del operador de proyección hasta una constante) le indica la multiplicidad de $\lambda_j$ . (¿Es ésta exactamente la prueba mediante funciones simétricas? Si no es así, ¿cuál es la relación?)

Inspeccionando el argumento anterior, no parece que los números complejos desempeñen un papel demasiado importante. Pero incluso para una representación unitaria más general, los valores propios viven en un círculo y podemos verlos como una medida $\mu$ . Todavía podemos obtener $\int z^k d\mu$ para todos los enteros $k$ . Mediante la inversión de Stone-Weierstrass o de Fourier, obtenemos así el espectro completo.

Hasta aquí he pensado en lo anterior, así que me encantaría saber si alguien puede decir algo más al respecto o dar más puntos de vista. Por ejemplo, ¿qué tipo de información muy crítica se pierde al considerar sólo un subgrupo cíclico a la vez? ¿Qué pasa con otras representaciones unitarias, posiblemente grupos infinitos o posiblemente infinitas dimensiones? (¿Debería empezar un hilo aparte?)

1voto

Eric Anastas Puntos 126

Es más una pregunta que una respuesta, pero de todos modos: Es evidente que si uno quiere estudiar las representaciones hasta la equivalencia, le gustaría adjuntar a cada matriz un invariante por conjugación. Se podrían buscar entonces funciones polinómicas en End(V) o GL(V) (V un espacio vectorial de dimensión finita), que muestren tal invariancia. En realidad, estamos buscando las órbitas fijas de la acción lineal de GL(V) sobre P(End(V)) (que, por cierto, es a su vez una representación de dimensión infinita de un grupo algebraico). De hecho, se trata de una subálgebra de P(End(V)) y quizá se pueda determinar un conjunto de generadores. La observación de David Savitt podría llevar a la pregunta: ¿basta tr(A^n) para generar nuestra álgebra?

-3voto

Arda Xi Puntos 1099

Hay muchos puntos buenos en otras respuestas, así que quiero añadir una cosa específica sobre por qué las representaciones se definen de forma única por sus personajes.

Las representaciones irreductibles están determinadas de forma única por peso más alto por lo que todas las representaciones pueden ser descritas por funciones highest weight -> ZZ . Ahora bien, pasar del peso más alto al carácter y viceversa es una transformación invertible en el espacio de tales funciones (además, la matriz de esta transformación es uppertriangular).

Esta construcción se puede encontrar en varias generalizaciones, por ejemplo, las láminas perversas en teoría de la representación geométrica Por lo tanto, parece ser un hecho fundamental de la teoría de la representación.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X