49 votos

¿Cómo demostrar constructivamente/combinatoriamente la dualidad Schur-Weyl?

¿Cómo es la dualidad Schur-Weyl (específicamente, el hecho de que las acciones del anillo de grupo $\mathbb{K}\left[ S_{n}\right] $ y el anillo monoide $\mathbb{K}\left[ \left( \operatorname*{End}V,\cdot\right) \right] $ en la potencia del tensor $V^{\otimes n}$ son los centralizadores de cada uno) para un campo $\mathbb{K}$ de la característica $0$ ¿Probado constructivamente?

Permítanme ahora definir las nociones y explicar lo que entiendo por "constructivamente" y lo que quiero evitar.

Anotaciones

Dejemos que $\mathbb{K}$ sea un campo de característica $0$ . Arreglar $n\in\mathbb{N}$ y dejemos que $S_{n}$ sea el grupo simétrico del conjunto $\left\{ 1,2,\ldots,n\right\} $ .

Dejemos que $V$ sea una dimensión finita $\mathbb{K}$ -espacio vectorial. El grupo simétrico $S_{n}$ actúa sobre el $n$ -a potencia del tensor $V^{\otimes n}$ permutando los tensorandos:

$\sigma\left( v_{1}\otimes v_{2}\otimes\cdots\otimes v_{n}\right) =v_{\sigma^{-1}\left( 1\right) }\otimes v_{\sigma^{-1}\left( 2\right) }\otimes\cdots\otimes v_{\sigma^{-1}\left( n\right) }$ para todos $\sigma\in S_{n}$ y $v_{1},v_{2},\ldots,v_{n}\in V$ .

Así, el anillo de grupo $\mathbb{K}\left[ S_{n}\right] $ actúa sobre $V^{\otimes n}$ también (por linealidad). Esto hace que $V^{\otimes n}$ en un $\mathbb{K} \left[ S_{n}\right] $ -módulo.

Por otro lado, el monoide $\left( \operatorname*{End}V,\cdot\right) $ actúa sobre $V^{\otimes n}$ de la siguiente manera:

$M\left( v_{1}\otimes v_{2}\otimes\cdots\otimes v_{n}\right) =Mv_{1}\otimes Mv_{2}\otimes\cdots\otimes Mv_{n}$ para todos $M\in\operatorname*{End}V$ y $v_{1},v_{2},\ldots,v_{n}\in V$ .

Por lo tanto, el anillo monoide $\mathbb{K}\left[ \left( \operatorname*{End} V,\cdot\right) \right] $ actúa sobre $V^{\otimes n}$ también. Esto hace que $V^{\otimes n}$ en un $\mathbb{K}\left[ \left( \operatorname*{End} V,\cdot\right) \right] $ -módulo.

(Muchos autores tienden a restringir este módulo a un $\mathbb{K}\left[ \operatorname*{GL}V\right] $ -pero esto no se siente particularmente natural para mí. En cualquier caso, estas cosas se comportan de forma bastante intercambiable).

Dualidad Schur-Weyl hace las siguientes dos afirmaciones:

(a) Cada endomorfismo del $\mathbb{K}\left[ S_{n}\right] $ -Módulo $V^{\otimes n}$ es la acción de algún elemento de $\mathbb{K}\left[ \left( \operatorname*{End}V,\cdot\right) \right] $ .

(b) Cada endomorfismo del $\mathbb{K}\left[ \left( \operatorname*{End}V,\cdot\right) \right] $ -Módulo $V^{\otimes n}$ es el acción de algún elemento de $\mathbb{K}\left[ S_{n}\right] $ .

En general, "algún elemento" no está determinado de forma única, ya que ninguna de las dos estructuras modulares es fiel. La página web $\mathbb{K}\left[ S_{n}\right] $ -Módulo es fiel cuando $n\leq\dim V$ La $\mathbb{K}\left[ \left( \operatorname*{End}V,\cdot\right) \right] $ -La estructura del módulo es probablemente nunca es fiel. Los cocientes que sí actúan fielmente pueden ser descritos, pero esto es una historia diferente.

¿Cómo se suele demostrar esto?

Para un teorema que aparece en todos los libros de teoría de la representación, la dualidad Schur-Weyl parece tener una escasez de pruebas realmente distintas. El argumento argumento (como se da, por ejemplo, en §4.18 y §4.19 de Pavel Etingof et al, Introducción a la teoría de la representación arXiv:0901.0827v5 ) procede, a grandes rasgos, como sigue: [ EDITAR: La prueba que se expone a continuación no es ni la versión más sencilla ni la más hábil del argumento estándar. El Texto de Etingof-et-al lo hace de una manera mucho más clara, factorizando algunos de los argumentos de los módulos semisimples en un lema general. Como han señalado los comentaristas, David Speyer y Mark Wildon (en la pregunta #90094 de MO) han elementarizado aún más el argumento pero sus versiones todavía no son tan ligeras como me gustaría que fueran (por ejemplo, todavía utilizan el lema de Schur, que requiere una prueba de irreductibilidad absoluta)].

  • Primero pruebe la parte (a) utilizando métodos bastante elementales. (Esquema: Sea $f$ sea un endomorfismo de la $\mathbb{K}\left[ S_{n}\right] $ -Módulo $V^{\otimes n}$ . Escriba $f$ como $\mathbb{K}$ -combinación lineal de endomorfismos de la forma $f_{1}\otimes f_{2}\otimes\cdots\otimes f_{n}$ , donde cada $f_{i}$ está en $\operatorname*{End}V$ . Desde $f$ es $\mathbb{K} \left[ S_{n}\right] $ -equivariante, podemos simetrizarlo, de modo que $f$ también se convierte en un $\mathbb{K}$ -combinación lineal de endomorfismos de la forma $\dfrac{1}{n!}\sum_{\sigma\in S_{n}}f_{\sigma\left( 1\right) }\otimes f_{\sigma\left( 2\right) }\otimes\cdots\otimes f_{\sigma\left( n\right) } $ donde cada $f_{i}$ está en $\operatorname*{End}V$ . Queda por demostrar que cada endomorfismo de esta última forma es la acción de algún elemento de $\mathbb{K}\left[ \left( \operatorname*{End}V,\cdot\right) \right] $ . Este se hace utilizando alguna identidad de polarización, por ejemplo $\sum_{\sigma\in S_{n} }f_{\sigma\left( 1\right) }\otimes f_{\sigma\left( 2\right) }\otimes \cdots\otimes f_{\sigma\left( n\right) }=\sum_{I\subseteq\left\{ 1,2,\ldots,n\right\} }\left( -1\right) ^{n-\left\vert I\right\vert }\left( \sum_{i\in I}f_{i}\right) ^{\otimes n}$ .)

  • Dejemos que $B$ sea el $\mathbb{K}$ -Álgebra $\operatorname*{End} \nolimits_{\mathbb{K}\left[ S_{n}\right] }\left( V^{\otimes n}\right) $ . Entonces, $B$ es un cociente de $\mathbb{K}\left[ \left( \operatorname*{End} V,\cdot\right) \right] $ por la parte (a) . Así, $\operatorname*{End} \nolimits_{\mathbb{K}\left[ \left( \operatorname*{End}V,\cdot\right) \right] }\left( V^{\otimes n}\right) =\operatorname*{End}\nolimits_{B} \left( V^{\otimes n}\right) $ .

  • Recordemos que $\mathbb{K}\left[ S_{n}\right] $ es un álgebra semisimple (por Teorema de Maschke), y por tanto $V^{\otimes n}$ se descompone como $V^{\otimes n}=\bigoplus_{\lambda\in\Lambda}V_{\lambda}\otimes L_{\lambda}$ para algunos conjunto finito $\Lambda$ , algunos no nulos $\mathbb{K}$ -espacios vectoriales $V_{\lambda}$ y alguna simple no isomorfa por pares $\mathbb{K}\left[ S_{n}\right] $ -módulos $L_{\lambda}$ . Concluir que $\operatorname*{End} \nolimits_{\mathbb{K}\left[ S_{n}\right] }\left( V^{\otimes n}\right) \cong\prod_{\lambda\in\Lambda}\operatorname*{End}\left( V_{\lambda}\right) $ . Este es un paso especialmente complicado, ya que aquí ocurren varias cosas a la vez a la vez: En primer lugar, tenemos que saber que $\operatorname*{End} \nolimits_{\mathbb{K}\left[ S_{n}\right] }\left( L_{\lambda}\right) \cong\mathbb{K}$ lo que sería una consecuencia del lema de Schur si supusiéramos que que $\mathbb{K}$ es algebraicamente cerrado, pero como no lo tenemos, requiere algún conocimiento de la teoría de la representación de $S_{n}$ (es decir, del hecho de que el simple $\mathbb{K}\left[ S_{n}\right] $ -son los módulos Specht, y son absolutamente simples). Pero incluso sabiendo eso, necesitamos saber que los anillo de endomorfismo de una suma directa de módulos irreducibles $\mathbb{K}\left[ S_{n}\right] $ -se descompone como un producto directo según la componentes isotípicos, y en cada componente es un anillo de matriz. Esta es la teoría teoría de las álgebras semisimples, pero también requiere una cantidad no trivial de trabajo.

  • Ahora, $B=\operatorname*{End}\nolimits_{\mathbb{K}\left[ S_{n}\right] }\left( V^{\otimes n}\right) \cong\prod_{\lambda\in\Lambda} \operatorname*{End}\left( V_{\lambda}\right) $ Así pues, el $V_{\lambda}$ para $\lambda\in\Lambda$ son los simples $B$ -módulos. Por lo tanto, la descomposición $V^{\otimes n}=\bigoplus_{\lambda\in\Lambda}V_{\lambda}\otimes L_{\lambda}$ puede verse como una descomposición del $B$ -Módulo $V^{\otimes n}$ en simples. Por lo tanto, los endomorfismos de la $B$ -Módulo $V^{\otimes n}$ son directos sumas de la forma $\bigoplus_{\lambda\in\Lambda}\operatorname*{id} \nolimits_{V_{\lambda}}\otimes f_{\lambda}$ donde cada $f_{\lambda}$ se encuentra en $\operatorname*{End}\left( L_{\lambda}\right) $ . (Esto, de nuevo, requiere algunos teoría básica de módulos semisimples). Ahora es sencillo demostrar que todos los tales isomorfismos son acciones de elementos de $\mathbb{K}\left[ S_{n}\right] $ (de hecho, el $L_{\lambda}$ son pares no isomórficos simples $\mathbb{K} \left[ S_{n}\right] $ -y por lo tanto $\prod_{\lambda\in\Lambda }\operatorname*{End}\left( L_{\lambda}\right) $ es un cociente de $\mathbb{K}\left[ S_{n}\right] $ ). Debido a $\operatorname*{End} \nolimits_{\mathbb{K}\left[ \left( \operatorname*{End}V,\cdot\right) \right] }\left( V^{\otimes n}\right) =\operatorname*{End}\nolimits_{B} \left( V^{\otimes n}\right) $ Esto da como resultado la parte (b) .

¿Qué es lo que quiero?

Estoy bastante contento con la prueba de parte (a) dado anteriormente, pero la prueba de parte (b) es exactamente el tipo de argumento que evito. Es implícito, no constructivo y se basa en medio semestre de teoría de la representación teoría de la representación. Probablemente mi mayor problema con él es estético - veo (b) como un problema combinatorio (al menos muchas de sus invariantes teóricas aplicaciones son de naturaleza combinatoria), pero la prueba es peinar este gato completamente a contrapelo (si no tirando de él por la cola). Pero pedir una prueba combinatoria o explícita no es un problema bien definido, mientras que pedir una constructiva, al menos, está bien definido.

Dicho esto, sospecho que se puede obtener una prueba constructiva mediante alguna manipulaciones sencillas del argumento anterior. La teoría de la representación de $S_{n}$ puede hacerse de forma constructiva (véase, por ejemplo Notas de Adriano Garsia sobre La forma seminormal de Young ), y la mayoría de los argumentos de las álgebras semisimples pueden emularse con el álgebra lineal simple (aunque perdiendo el poco significado significado intuitivo que tienen). Yo preferiría algo que evitara esto y simplifique significativamente la teoría de la representación o la sustituya por algo completamente diferente.

¿Qué se ha hecho?

Mis esperanzas de una prueba mejor tienen una razón: La dualidad Schur-Weyl realmente funciona en una generalidad mucho mayor que la demostración anterior. El teorema 1 en Steven Doty's Dualidad Schur-Weyl en característica positiva (arXiv:math/0610591v3) afirma que tanto (a) y (b) se mantienen para cualquier campo infinito $\mathbb{K}$ , ¡no importa cuál sea su característica! Sin embargo, la prueba en ese documento, va de la cabeza (tampoco es autocontenida, por lo que las 17 páginas no son un límite superior). Otro artículo que podría contener respuestas es Roger W. Carter y George Lusztig, Sobre las representaciones modulares de los sistemas lineales generales y grupos simétricos pero ese parece aún menos accesible.

Por supuesto, me encantaría ver una prueba que funcione para cualquier campo infinito $\mathbb{K}$ o quizás más generalmente para cualquier anillo conmutativo $\mathbb{K}$ suponiendo que sustituimos los endomorfismos de la $\mathbb{K} \left[ \left( \operatorname*{End}V,\cdot\right) \right] $ -Módulo $V^{\otimes n}$ por una noción más razonable de $\operatorname*{GL} $ -(es decir, endomorfismos de $V^{\otimes n}$ que conmutan con la acción de un "genérico $n\times n$ -matriz" adosada libremente a la base base). Pero me alegraría bastante ver la dualidad Schur-Weyl de vainilla demostrada de forma clara.

Un paso que se puede hacer fácilmente es una prueba de parte (b) en el caso de que $\dim V\geq n$ . Concretamente, en este caso, podemos argumentar lo siguiente: Sea $\left( e_{1},e_{2},\ldots,e_{d}\right) $ sea la base estándar de $V$ Así que.., $d=\dim V\geq n$ . Sea $F$ sea un endomorfismo de la $\mathbb{K}\left[ \left( \operatorname*{End}V,\cdot\right) \right] $ -Módulo $V^{\otimes n}$ . Sea $\eta=F\left( e_{1}\otimes e_{2}\otimes\cdots\otimes e_{n}\right) $ . En cada $n$ vectores $v_{1},v_{2},\ldots,v_{n}\in V$ podemos encontrar un mapa lineal $M\in\operatorname*{End}V$ satisfaciendo $v_{i}=Me_{i}$ para todos $i\in\left\{ 1,2,\ldots,n\right\} $ y, por lo tanto, tenemos

$F\left( v_{1}\otimes v_{2}\otimes\cdots\otimes v_{n}\right) =F\left( Me_{1}\otimes Me_{2}\otimes\cdots\otimes Me_{n}\right) $

$=\left( M\otimes M\otimes\cdots\otimes M\right) \underbrace{F\left( e_{1}\otimes e_{2}\otimes\cdots\otimes e_{n}\right) }_{=\eta}$ (ya que $F$ es $\mathbb{K}\left[ \left( \operatorname*{End}V,\cdot\right) \right] $ -equivariante)

$=\left( M\otimes M\otimes\cdots\otimes M\right) \eta$ .

Así, el valor de $\eta$ determina de forma única el endomorfismo $F$ . Además, podemos escribir $\eta$ como $\mathbb{K}$ -combinación lineal de la pura de tensores puros de la forma $e_{i_{1}}\otimes e_{i_{2}}\otimes\cdots\otimes e_{i_{n}}$ y demostrar que, para cada uno de esos tensores puros que se dan en esta línea combinación lineal (con coeficiente no nulo), el $n$ -tupla $\left( i_{1} ,i_{2},\ldots,i_{n}\right) $ debe ser una permutación de $\left( 1,2,\ldots ,n\right) $ . (Para demostrar esto, suponemos lo contrario; es decir, suponemos que el $n$ -tupla $\left( i_{1},i_{2},\ldots,i_{n}\right) $ no es una permutación de $\left( 1,2,\ldots,n\right) $ pero el tensor $e_{i_{1}}\otimes e_{i_{2} }\otimes\cdots\otimes e_{i_{n}}$ se produce en $\eta$ . Por lo tanto, cualquiera de los números $i_{1},i_{2},\ldots,i_{n}$ es $>n$ o dos de estos números son iguales. En el primer caso, elija un $M\in\operatorname*{End}V$ que envía el correspondiente $e_{i_{k}}$ à $0$ En el segundo, elija un $M\in \operatorname*{End}V$ que multiplica el correspondiente $e_{i_{k}}$ por un genérico $\lambda$ . En cualquier caso, vuelva a utilizar el $\mathbb{K}\left[ \left( \operatorname*{End}V,\cdot\right) \right] $ -equivarianza de $F$ para obtener algo absurdo. Perdón por la falta de detalles). El resultado es que $\eta$ es un $\mathbb{K}$ -combinación lineal de varias permutaciones de $e_1 \otimes e_2 \otimes \cdots \otimes e_n$ y por lo tanto, $F$ (siendo determinado por este $\eta$ ) es la acción de algún elemento de $\mathbb{K}\left[S_n\right]$ .

Sin embargo, este argumento se rompe por completo cuando $\dim V<n$ ya que $e_{1}\otimes e_{2}\otimes\cdots\otimes e_{n}$ ya no existe. ¿Es hay alguna manera de arreglarlo, o es un callejón sin salida?

( Observación: Este argumento para la parte (b) en el caso $\dim V \geq n$ es bastante similar a la demostración del Teorema 3.6 en Tom Halverson, Arun Ram, Álgebras de partición arXiv:math/0401314v2 , que en sí misma es una especie de dualidad Schur-Weyl (¡pero en la que el grupo simétrico actúa sobre cada tensorando en lugar de permutar los tensorandos!)

Unas cuantas indicaciones más:

  • Tal vez el truco unitario de Weyl proporcione otra prueba de la dualidad Schur-Weyl, pero probablemente no sería constructiva ni combinatoria en mi opinión (¡medida de Haar!).

  • Hay varios trabajos sobre un enfoque combinatorio de la teoría de invariantes (por ejemplo, D. Eisenbud, D. De Concini, C. Procesi, Diagramas de Young y variedades determinantes que parece ser uno de los más legibles). Sin embargo, no está claro si dan una respuesta. La teoría invariante del $\operatorname{GL}$ -sobre tuplas de vectores y covectores (por multiplicación izquierda/derecha) se suele derivar (en la característica $0$ En el enfoque no combinatorio) a partir de la dualidad Schur-Weyl; sin embargo, no sé cómo se podría ir en la dirección inversa (después de todo, la proyección del álgebra tensorial al álgebra simétrica no es inyectiva). La FFT para la teoría invariante del $\operatorname{GL}$ -La acción sobre tuplas de matrices por conjugación (simultánea) es en realidad equivalente a la dualidad Schur-Weyl, pero no he visto a nadie reclamar una aproximación combinatoria a la misma.

  • La tesis de Schur Sobre una clase de matrices que pueden ser asignadas a una matriz dada está disponible en línea en dos lugares ( EUDML/GDZ y archive.org/Harvard ), pero no estoy seguro de que la dualidad Schur-Weyl esté realmente ahí. (Sus anotaciones son lo suficientemente anticuadas como para que incluso buscar el enunciado sea una tarea no trivial).

  • La noción de "dualidad Schur-Weyl" no está estandarizada en la literatura; algunos autores utilizan este nombre para diferentes afirmaciones. Por ejemplo, Daniel Bump, en el capítulo 34 de su Grupos de Lie (2ª edición), demuestra algo que llama "dualidad Frobenius-Schur", y afirma que es exactamente la dualidad Schur-Weyl. Pero no es lo que yo llamo dualidad Schur-Weyl arriba; es sólo la correspondencia uno a uno entre representaciones de grupos simétricos y funtores de Schur.

ACTUALIZACIÓN: En los comentarios a esta entrada, Frieder Ladisch me ha alertado del hecho de que el teorema del doble centralizador (o, mejor dicho, la parte del teorema del doble centralizador que es relevante para la demostración de la parte b) ) puede demostrarse constructivamente (siempre que la entrada sea suficientemente explícita). Y ahora estoy viendo que esencialmente su prueba aparece en la sección 11.1 de Jan Draisma y Dion Gijswijt, Teoría Invariante con Aplicaciones . (Jan: Me he tomado la libertad de adivinar la URL del archivo PDF, al ver que el hipervínculo estaba roto debido a una ruta relativa incorrecta. Si realmente no quiere que estas notas estén enlazadas, por favor hágamelo saber). Algunas partes de su argumento deben ser ligeramente modificadas para asegurar la constructividad: El uso de la continuidad en la demostración del Teorema 11.1.1 debe ser sustituido por un argumento directo utilizando la densidad de Zariski. El grupo $H$ en el Teorema 11.1.2 debe exigirse que sea finito. El espacio vectorial $W$ en el Teorema 11.1.2 debe exigirse que sea de dimensión finita. El requisito del Teorema 11.1.2 de que la representación $\lambda$ ser completamente reducible debe ser sustituido por un requisito de que $\left|H\right|$ es invertible en el campo de tierra. El complemento directo $U$ de $M$ en la demostración del teorema 11.1.2 debe construirse utilizando el teorema de Maschke, que tiene una demostración bien conocida que se basa simplemente en el álgebra lineal (a saber, la existencia de un complemento de un subespacio explícitamente definido de un espacio vectorial de dimensión finita).

Por supuesto, este bello argumento sigue siendo "inexplícito" en el sentido de que utiliza algunas ideas de la teoría de la representación. Pero los peores infractores (la teoría de Artin-Wedderburn, el paso al cierre algebraico, el análisis/la geometría, etc.) han desaparecido. Si hubiera conocido este argumento de antemano, no habría hecho esta pregunta. Sin embargo, dejo esta pregunta abierta, ya que todavía tengo que digerir otras respuestas, algunas de las cuales parecen conducir a pruebas más generales, tal vez incluso en característica positiva (para cualquier parte de la dualidad Schur-Weyl que se mantenga allí).

8voto

harris Puntos 1

Esta es una continuación de mi primera respuesta. Estaba tratando de editar la anterior pero el procesamiento de MathJax congelaba mi ordenador. Supongo que la respuesta se estaba haciendo demasiado larga.

@Darij: Ha habido mucha acción en esta pregunta desde que publiqué mi primera respuesta anoche. Aunque, debo decir, no ha habido mucha lectura de esa respuesta... ;)

En sus comentarios ha planteado dos cuestiones.

Número 1: ¿cómo implica la FFT la parte b) de la dualidad Schur-Weyl (la parte difícil)?

Mi respuesta: La prueba que he dado hace en un solo barrido, sin pausa intermedia, la FFT para $SU(d)$ (y no $U(d)$ como en la respuesta de David) y la dualidad Schur-Weyl. Pero podría haberlo escrito en dos pasos. En este caso el protagonista principal $T$ sería una matriz con entradas $$ T_{a_1\ldots a_p,i_1\ldots i_q} $$ correspondiente a un invariante de $p$ vectores y $q$ covectores. Después de eliminar los elementos de la matriz de $g^{-1}$ por la regla de Cramer, una tiene un grado $p+q(d-1)=qd+p-q$ polinomio homogéneo en las entradas de $g$ para ser golpeado por una potencia adecuada $r$ de ${\rm det}(\partial g)$ . Si $d$ no divide $p-q$ puis $T$ debe desaparecer. De lo contrario, $r=q+\frac{p-q}{d}$ y al final del argumento anterior utilizando la eliminación de $\epsilon$ y $\tau$ en parejas con la identidad " ${\rm det}(AB)={\rm det}(A){\rm det}(B)$ ", el número de $\epsilon$ es $q$ mientras que el número de $\tau$ es $r$ .

  1. Si $p>q$ Entonces $r>q$ y tras la eliminación por pares de $q$ $\epsilon$ - $\tau$ pares, uno se queda con $q$ contracciones directas de vectores y covectores mediadas por una permutación en $S_q$ (esto es el Schur-Weyl o $GL$ parte invariante) así como $(p-q)/d$ sobreviviendo a $\tau$ 's dando lo que los clásicos llamaban "Klammerfaktoren" que implican sólo vectores.
  2. Si $p<q$ Entonces $r<q$ y tras la eliminación por pares de $r$ $\epsilon$ - $\tau$ pares, uno se queda con $p$ contracciones directas de vectores y covectores mediadas por una permutación en $S_p$ (esto es de nuevo el Schur-Weyl o $GL$ parte invariante) así como $(q-p)/d$ sobreviviendo a $\epsilon$ 's dando "Klammerfaktoren" que implican sólo covectores.
  3. Lo que te interesa es el caso especial $p=q=n$ o la situación pura de Schur-Weyl sin "Klammerfaktoren". En otras palabras, La dualidad Schur-Weyl parte b) es este caso particular del Primer Teorema Fundamental de la teoría invariante clásica para $SU(d)$ slash $SL(d)$ .

Número 2: Esto no cuenta porque la prueba utiliza el análisis, la medida de Haar, etc.

Mi respuesta: La medida de Haar es sólo un aderezo para la ensalada. Lo incorporé a la narración para que la estructura de la prueba fuera más natural. La prueba que di para la FFT de $SU(d)$ slash $SL(d)$ sólo tiene tres sencillos pasos: 1) media sobre el grupo. 2) averiguar qué significa promediar en términos algebraicos/combinatorios en lugar de analíticos 3) hacer el cálculo y contemplar el resultado. Me habría llevado demasiado tiempo hacer dibujos en mi respuesta, pero esta es una prueba puramente gráfica. Si quieres ver estas imágenes al menos en el caso $d=2$ , $p$ arbitraria y $q=0$ caso, consulte las páginas 16-17 de este artículo . (Si tiene acceso a JKTR, el versión publicada es bastante mejor).

Podría haber escrito mi primera respuesta de forma puramente combinatoria sin mencionar la medida de Haar en absoluto, pero entonces algunos elementos de la prueba habrían salido totalmente de la nada. En particular, habría tenido que decir de repente: si $T$ es invariable entonces $$ T=c_n\ ({\rm det}(\partial g))^n\ gT $$ donde $gT$ es la expresión obtenida tras la regla de Cramer y la $g$ se tratan como variables formales. Así que vuelvo a insistir, mi respuesta es puramente combinatoria. Pero no sé si puede ser útil en una característica no nula. Esto puede requerir la comprensión de la aritmética de la $c_n$ 's.

Observación adicional: Una prueba más natural en el espíritu de la que di sería utilizar la FFT para $U(d)$ slash $GL(d)$ en lugar de $SU(d)$ slash $SL(d)$ . Esto necesitaría una fórmula explícita para promediar como un operador diferencial de orden infinito. Recuerdo haber visto algo así en un artículo de física, pero tendría que encontrar esa referencia. Normalmente la gente recurre al cálculo de Weingarten que va en la dirección ortogonal de la teoría de caracteres del grupo simétrico.


Editar: Otra reescritura de la prueba de la FFT para $SU(d)$ slash $SL(d)$ para eliminar el análisis y las medidas de Haar, etc.

Para cualquier $p,q\ge 0$ , dejemos que $\mathcal{T}_{p,q}$ sea el conjunto de matrices $$ T=(T_{a_1,\ldots,a_p,i_1\ldots,i_q})_{a_1,\ldots,a_p,i_1\ldots,i_q\in [d]} $$ de los números complejos. Para $g\in GL(d)$ y $T\in\mathcal{T}_{p,q}$ definir la nueva matriz $gT$ por $$ (gT)_{a_1,\ldots,a_p,i_1\ldots,i_q}=\sum_{b_1,\ldots,b_p,j_1\ldots,j_q\in [d]} T_{j_1,\ldots,j_p,b_1\ldots,b_q} g_{a_1 j_1}\cdots g_{a_p j_p}\ (g^{-1})_{b_1 i_1}\cdots (g^{-1})_{b_q i_q} $$ Si $q=0$ entonces está bien definida para todas las matrices $g$ y no sólo los invertibles.

Definimos dos mapas $\phi:\mathcal{T}_{p,q}\rightarrow \mathcal{T}_{p+q(d-1),0}$ y $\psi:\mathcal{T}_{p+q(d-1),0} \rightarrow\mathcal{T}_{p,q}$ de la siguiente manera: $$ (\phi(T))_{a_1\ldots a_p, b_{11}\ldots b_{1 (d-1)},\cdots, b_{q 1}\ldots, b_{q (d-1)}}=\sum_{b_1,\ldots,b_q\in [d]} $$

$$ T_{a_1,\ldots,a_p,b_1\ldots,b_q} \tau_{b_1,b_{11}\ldots b_{1 (d-1)}}\cdots \tau_{b_q, b_{q 1}\ldots b_{q (d-1)}} $$ y $$ (\psi(S))_{a_1,\ldots,a_p,i_1\ldots,i_q}=\sum_{j_{11}\ldots j_{1 (d-1)},\cdots, j_{q 1}\ldots, j_{q (d-1)}\in [d]} $$

$$ S_{a_1\ldots a_p, i_1, j_{11}\ldots j_{1 (d-1)},\cdots, i_q, j_{q 1}\ldots, j_{q (d-1)}} \epsilon_{i_1, j_{11}\ldots j_{1 (d-1)}}\cdots \epsilon_{i_q, j_{q 1}\ldots j_{q (d-1)}} $$ Para todos los invertibles $g$ uno tiene $$ g\phi(T)=({\rm det}(g))^{q} \ \phi(gT) $$ y $$ g\psi(S)=({\rm det}(g))^{-q}\ \psi(gS) $$ como consecuencias triviales de la aún más trivial identidad $$ \sum_{i_1\ldots i_d\in [d]}\epsilon_{i_1\ldots i_d} M_{i_1 j_1}\cdots M_{i_d j_d}= {\rm det}(M)\epsilon_{j_1\ldots j_d} $$ y también un buen par de gafas.

Además, se tiene $$ \psi(\phi(T))= \frac{1}{(d-1)!^q} \ T $$ como consecuencia de la regla de Cramer para la matriz identidad, a saber, $$ \sum_{j_1\ldots j_{d-1}\in [d]}\epsilon_{j,j_1\ldots j_{d-1}}\tau_{i,j_1\ldots j_{d-1}}=(d-1)!\ \delta_{j,i} $$ Lo anterior es un trabajo de preparación para una reducción de la FFT para $SU(d)$ al caso $q=0$ y $p$ divisible por $d$ .

Supongamos ahora que $q=0$ y que $T\in\mathcal{T}_{p,0}$ es invariable, es decir, $gT=T$ para todos $g\in SU(d)$ o más bien $SL(d)$ . Dado que cualquier $g\in GL(d)$ puede escribirse como $g=\lambda h$ avec $h\in SL(d)$ y $\lambda$ algunos $d$ -raíz de ${\rm det}(g)$ entonces desde $gT$ es un polinomio homogéneo tenemos más generalmente $gT=({\rm det}(g))^n\ T$ para todos $g\in GL(d)$ e incluso para todos $g\in {\rm Mat}_{d\times d}$ . Aquí $n$ denota el peso $p/d$ . Ahora tenemos $$ ({\rm det}(\partial g))^n\ gT=({\rm det}(\partial g))^n\ ({\rm det}(g))^n T=\rho_n\ T $$ El corazón de la prueba (así como de la comprensión de la medida de Haar como combinatoria pura), es mostrar que $$ \rho_n=({\rm det}(\partial g))^n\ ({\rm det}(g))^n \neq 0 $$ La forma más precisa de hacerlo es mediante el ejercicio de la "identidad de Cayley", que da la fórmula explícita $$ \rho_n=\frac{1}{c_n} $$ Pero un argumento más barato es el siguiente. Al sumar sobre la permutación en $S_{nd}$ que llamé esquema de contracción de Wick (sólo la regla de Leibnitz) que surge en el cálculo de $\rho_n$ se obtiene una suma de cuadrados: lo que llamé los dos componentes desacoplados (en lugar de conectados) que he mencionado antes son idénticos y ofrecen la misma evaluación numérica. Basta con elegir uno de estos esquemas de contracción, por ejemplo, viniendo de $$ \left[({\rm det}(\partial g))\ ({\rm det}(g))\right]^n $$ y comprobar que es distinto de cero. El germen de esta "simetría especular" entre las dos componentes es visible en el lado derecho de la identidad básica que he utilizado $$ \frac{\partial}{\partial g_{cl}}g_{i b}=\delta_{ci}\delta_{lb} $$

Supongo que son suficientes detalles para que termines la prueba de la FFT para $SU$ o $SL$ .

Permítanme decir simplemente que esta no es mi prueba sino la de Clebsch en su increíble artículo "Sobre la representación simbólica de las formas algebraicas" en Crelle 1861. (Por favor, haga clic en el enlace de texto completo y lea la sección 3 de ese artículo y, en particular, las páginas 12 y 13 que contienen el argumento de la suma de cuadrados no evanescente). Como otro comentario sobre la historia, pongo comillas al hablar de la "identidad de Cayley" porque (por supuesto Arnold diría) no se encuentra en ninguna parte en las obras de Cayley. El primer ejemplo que he visto está en el libro de Clebsch sobre formas binarias para $d=2$ . Sin duda, debe haber estado tratando de obtener una mejor comprensión de la $\rho_n$ coeficientes y también la serie Gordan-Clebsch (véase mi artículo JKTR). Se supone que Tony Crilly, Alan Sokal y yo debemos trabajar en un artículo sobre la historia de la "identidad de Cayley", pero nos hemos distraído con otras tareas. Se trata de la $({\rm back})^n$ -quemador con $n$ grande.

7voto

harris Puntos 1

Dado que estás de acuerdo con una prueba combinatoria explícita en la característica cero, creo que también deberías estar de acuerdo con trabajar sobre $\mathbb{C}$ . La parte b) de la dualidad Schur-Weyl se deduce del Primer Teorema Fundamental de la teoría invariante clásica para $SU(d)$ con un número igual $n$ de vectores y covectores. Yo prefiero el álgebra de bachillerato así que dejaré $\mathcal{T}$ sea el conjunto de matrices de números complejos $$ T=(T_{a_1,\ldots,a_n,i_1\ldots,i_n})_{a_1,\ldots,a_n,i_1\ldots,i_n\in [d]} $$ donde $[d]=\{1,2,\ldots,d\}$ . Defino la acción izquierda de $g\in U(d)$ en $\mathcal{T}$ por $$ (gT)_{a_1,\ldots,a_n,i_1\ldots,i_n}=\sum_{b_1,\ldots,b_n,j_1\ldots,j_n\in [d]} T_{j_1,\ldots,j_n,b_1\ldots,b_n} g_{a_1 j_1}\cdots g_{a_n j_n}\ (g^{-1})_{b_1 i_1}\cdots (g^{-1})_{b_n i_n} $$ Supongamos que $T$ es invariable por $U(d)$ y por lo tanto por $SU(d)$ entonces para todos los valores del $a$ y $i$ índices $$ T_{a_1,\ldots,a_n,i_1\ldots,i_n}=\int_{SU(d)} (gT)_{a_1,\ldots,a_n,i_1\ldots,i_n}\ d\mu(g) $$ donde $d\mu$ es la medida de Haar normalizada. Permítanme definir las matrices especiales $\epsilon$ y $\tau$ . Sea $$ \epsilon=(\epsilon_{i_1\ldots i_d})_{i_1\ldots i_d\in [d]} $$ con $\epsilon_{i_1\ldots i_d}$ igual al signo de la permutación $i_1,\ldots,i_d$ de $1,2,\ldots,d$ si los índices son distintos y igual a cero en caso contrario. Defino $$ \tau=(\tau_{a_1\ldots a_d})_{a_1\ldots a_d\in [d]} $$ exactamente de la misma manera, así que, de hecho, como "hipermatrices" $\tau=\epsilon$ pero servirán para diferentes propósitos, así que mantendré la distinción. Para $g\in SU(d)$ La regla de Cramer dice que $$ (g^{-1})_{bi}=\frac{1}{(d-1)!}\sum_{b_1\ldots b_{d-1}, i_1\ldots i_{d-1}\in[d]} \tau_{b b_1\ldots b_{d-1}}\epsilon_{i i_1\ldots i_{d-1}} g_{i_1 b_1}\cdots g_{i_{d-1} b_{d-1}} $$ Así que después de sustituir en la integral anterior uno se reduce a calcular $\int_{SU(d)}\ldots d\mu(g)$ para un monomio de grado $n+n(d-1)=nd$ en los elementos de la matriz de $g$ .

Para una variable matricial $J\in {\rm Mat}_{d\times d}(\mathbb{C})$ dejar $$ Z(J)=\int_{SU(d)}\ \exp({\rm tr}(Jg))\ d\mu(g) $$ Los siguientes hechos son ejercicios fáciles.

$Z(J)$ es una función analítica entera de $J$ .

$Z(J)$ sólo depende de ${\rm det}(J)$ .

Se tiene una representación en serie convergente en todas partes $$ Z(J)=\sum_{n=0}^{\infty} c_n ({\rm det}(J))^n $$ para unos coeficientes adecuados $c_n$ .

Otro ejercicio fácil es la llamada "identidad de Cayley" $$ {\rm det}(\partial J) ({\rm det}(J))^n=b(n) ({\rm det}(J))^{n-1} \ $$ con $\partial J=(\frac{\partial}{\partial J_{ij}})_{1\le i,j,\le d}$ y el polinomio explícito de Bernstein $$ b(n)=n(n+1)\ldots (n+d-1)\ . $$

No es difícil deducir de esto una recursión para el $c_n$ y finalmente la fórmula explícita $$ c_n=\frac{0! 1!\cdots (d-1)!}{n! (n+1)!\cdots (n+d-1)!}\ . $$ Como resultado, la integral de Haar para $T$ está dada por el golpe de ese lado derecho (de grado $nd$ en $g$ ) con el orden $nd$ operador diferencial $c_n ({\rm det}(\partial g))^n$ . Para este siguiente paso, escribe $$ {\rm det}(\partial g)=\frac{1}{d!}\sum_{c_1\ldots c_d,l_1\ldots l_d\in [d]} \tau_{c_1\ldots c_d}\epsilon_{l_1\ldots l_d} \frac{\partial}{\partial g_{c_1 l_1}} \cdots \frac{\partial}{\partial g_{c_d l_d}} $$ La fórmula básica de derivación $$ \frac{\partial}{\partial g_{c l}} g_{i b}=\delta_{c i}\delta_{l b} $$ se amplifica por la regla de Leibnitz que implica una suma sobre una permutación (o esquema de contracción de Wick) de $nd$ elementos. Esta permutación decide qué $\frac{\partial}{\partial g_{c l}}$ factor golpea que $g_{i b}$ factor. Al aplicar esto a $T$ y después de seguir cuidadosamente las contracciones del tensor, se ve que el "gráfico de las contracciones del índice" tiene dos componentes desacoplados. Una componente contiene el $j,b,l$ índices y da un factor numérico. El componente que importa contiene el $a,b,i$ los índices. Se trata exactamente de $n$ factores $\epsilon$ y $n$ factores $\tau$ . Puede haber una $\epsilon$ -a- $\tau$ contracciones de los índices. El resto $\epsilon$ los índices deben ser $i_1,\ldots,i_n$ que aparece en el "elemento matriz" $T_{a_1\ldots a_n,i_1\ldots i_n}$ a calcular. Asimismo, el resto de $\tau$ los índices deben ser $a_1,\ldots,a_n$ . Ahora elija un emparejamiento arbitrario entre el $\epsilon$ y el $\tau$ 's entre los $n!$ posibles. Por último, utilice la identidad $$ \epsilon_{l_1\ldots l_d}\tau_{c_1\ldots c_d}=\sum_{\sigma\in S_d} {\rm sign}(\sigma)\delta_{l_1 c_{\sigma(1)}} \cdots \delta_{l_d c_{\sigma(d)}} $$ (que es simplemente ${\rm det}(AB)={\rm det}(A){\rm det}(B)$ ) para cada una de estas (ciertamente artificiales) $\epsilon$ - $\tau$ par.

Al final del día, después de ampliar una suma superior a $n$ permutaciones $\sigma_1,\ldots,\sigma_n$ los términos obtenidos son todos combinaciones lineales de $T^{\sigma}$ , $\sigma\in S_n$ , donde $$ (T^{\sigma})_{a_1\ldots a_n,i_1\ldots i_n}=\delta_{a_1 i_{\sigma(1)}} \cdots \delta_{a_n i_{\sigma(n)}}\ . $$ Esta última afirmación es la dualidad Schur-Weyl.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X