4 votos

Rastros en diferentes representaciones

Actualmente estoy trabajando con el mecanismo de cancelación de anomalías de Green-Schwarz en el que me encontré con una extraña fórmula que relaciona la traza en la representación adjunta (Tr) con la traza en la representación fundamental (tr). Para el caso especial de $SO(n)$, la relación es

$$Tr(e^{iF})= \frac{1}{2}(tre^{iF})^2-\frac{1}{2}(tre^{2iF}).$$

Esta relación se puede encontrar en 'Teoría de cuerdas y teoría M' de Becker, Becker y Schwarz Capítulo 5. Ellos dicen que este es un resultado que se deriva de la propiedad de factorización del carácter de Chern (supongo que algo similar a cómo el carácter de Chern puede representarse por un producto de caracteres de Chern definidos en dos fibrados vectoriales, cuando se evalúa todo el carácter en el producto de los fibrados vectoriales pero no estoy seguro porque nunca me he encontrado con ese término).

¿Alguien puede decirme cómo relacionar las trazas en una representación con la otra porque nunca lo he visto antes en ningún contexto teórico de grupos?

El Capítulo 13 de GSW también contiene alguna información al respecto pero no es muy útil.

3voto

Nick Puntos 583

Buena suerte. Para verificar la cancelación para grupos particulares como $E_8\times E_8$ y $SO(32)$, realmente tendrás que pasar por tareas grupales similares. La fórmula de traza similar para las trazas de las transformaciones de $E_8$ son especialmente deliciosas, incluido el factor de $1/30.

El caso ortogonal es más fácil incluso si uno no es un amigo íntimo de todas las "cosas de Chern", y yo no lo soy.

En tu fórmula, $\exp(iF)$ puede entenderse como un elemento general del grupo $SO(n)$ mientras que $F$ es un elemento del álgebra de Lie. Este último es antisimétrico en la representación fundamental, ¿de acuerdo? Por lo tanto, puede ser "diagonalizado", y los autovalores se emparejan en pares $\pm\lambda_i.

De manera similar, $\exp(iF)$ puede ser diagonalizado y los autovalores vienen en pares $\exp(\pm i\lambda_j)$, ¿de acuerdo? Alternativamente, el bloque $2\times 2$ con estos autovalores puede escribirse como la matriz $((\cos\lambda_j,\sin\lambda_j),(-\sin\lambda_j,\cos\lambda_j))$.

Ahora, es importante darse cuenta de cómo lucen los elementos de la matriz en la representación adjunta. La representación adjunta de $SO(n)$ es dimensional $n(n-1)/2$, ¿de acuerdo? Permíteme asumir que $n$ es par: incrustar $SO(2k+1)$ en $SO(2k+2)$ si es necesario. Es la parte antisimétrica del producto tensorial $n\times n$. Por lo tanto, si los elementos de la matriz de una transformación $\exp(iF)$ en la representación fundamental son $\exp(i\lambda_j)$, los elementos de la matriz en la representación adjunta (tensor antisimétrico) son combinaciones de productos de dos elementos similares, es decir, combinaciones de $\exp(i\lambda_j+i\lambda_k)$, ¿de acuerdo?

Es fácil ver que si diagonalizamos $\exp(iF)$ en la representación fundamental, con autovalores $\exp(\pm \lambda_j)$, la traza sobre la representación fundamental es solo la suma de estas fases, que es $$ {\rm tr} (\exp(iF)) = \sum_{\pm} \sum_j \exp(\pm i\lambda_j) = 2\sum_j \cos\lambda_j $$ En la base naturalmente asociada de la representación adjunta, la transformación $\exp(iF)$ también está diagonalizada. Dado que los vectores de base $n(n-1)/2$ son solo pares de vectores de la base fundamental, las entradas diagonales de $\exp(iF)$ son solo productos de dos entradas diagonales en la representación fundamental, por lo que son $$\exp(\pm i\lambda_j\pm i\lambda_k), \quad j \lt k$$ donde los dos signos $\pm$ son independientes. La traza es la suma de todos estos números, que es $${\rm Tr}(\exp(iF)) = \sum_{j\lt k} \left[ 2\cos(\lambda_j+\lambda_k)+2\cos(\lambda_j-\lambda_k) \right] $$ Este es el lado izquierdo de tu identidad. El primer término en el lado derecho es $$ \frac 12 2^2\left(\sum_j \cos\lambda_j \right)^2$$ donde simplemente elevé al cuadrado un resultado anterior, mientras que el segundo término es $$ - \frac 12 \sum_j 2\cos 2\lambda_j $$ donde simplemente duplicé el argumento del coseno. Ahora, ambos lados pueden simplificarse a $$ 4\sum_{j\lt k} \cos \lambda_j \cos \lambda_k $$ En el caso del lado izquierdo, es porque los términos $\sin\cdot\sin$ se cancelan cuando se suman los dos términos con signos iguales u opuestos. Se utiliza $\cos(a+b)=\cos a\cos b - \sin a \sin b$ - tal vez todas las cosas serían más simples usando la notación exponencial compleja, de todos modos. En el caso del lado derecho, los términos $j\neq k$ del primer término son correctos, incluido el factor correcto de cuatro, mientras que los términos $j=k$ deben restarse del primer término por el segundo término. Bueno, queda un término constante: $$2\cos^2 \lambda_j - \cos 2\lambda_j = 1$$ Pero los términos constantes coinciden porque se verifican cuando $\lambda_j=0$ para todos los $j$. La traza del operador identidad ($F=0$) en el lado izquierdo es $n(n-1)/2$, simplemente la dimensión de la rep, mientras que el primer término en el lado derecho produce $n^2/2$ y el segundo te da $-n/2`, así que las cosas están bien.

Estoy seguro de que completarás los detalles y preguntarás si algo realmente necesita algo de asistencia adicional.

Por supuesto que existen pruebas que evitan la diagonalización y pruebas que están conceptualmente vinculadas a partes más esotéricas de las matemáticas. Pero un cálculo explícito utilizando los elementos de matriz explícitos de las transformaciones en ambas representaciones podría ser útil para pasar al menos una vez en la vida.

Por cierto, puede que hayas notado que la base en la que se diagonalizaron las transformaciones era "compleja" - las coordenadas de los autovectores en relación con la "base real habitual" del espacio $n$-dimensional eran complejas. Pero eso no es un problema. Acabo de resolver un problema más general para las trazas en todo el grupo $SO(n,C)$, y el resultado para $SO(n,R)$ puede considerarse un caso especial de él. En general, en física y matemáticas lo suficientemente "profundas", uno nunca debería protestar contra los números complejos (coordenadas complejas de autovectores y quizás autovalores complejos de matrices unitarias, etc.) mientras se diagonalizan cosas.

1 votos

Muchas gracias. En realidad ahora puedo ver cómo sigue de la propiedad de factorización del carácter de Chern.

0 votos

¿Te importaría al menos esbozar la derivación utilizando la propiedad de factorización? Llegué hasta aquí: Sea $v$ la representación fundamental, $a$ la adjunta y $s$ la representación simétrica. Entonces, omitiendo el exponencial por brevedad, $\mathrm{tr}_{v\times v}=\mathrm{tr}_a+\mathrm{tr}_s$. Reorganizando y cambiando la notación, $\mathrm{Tr}=(\mathrm{tr})^2-\mathrm{tr}_s$ donde $\mathrm{tr}$ es la traza estándar. ¿Cómo sigo? ¿Cómo evalúo $\mathrm{tr}_s$?

0 votos

Estimado @ 0celo7, tu pregunta es exactamente lo que estaba respondiendo en mi respuesta. Si quieres calcular la traza sobre las representaciones simétricas, antisimétricas o adjuntas mediante "factorización solamente", fallarás porque estas representaciones no se factorizan en productos tensoriales. Son partes de los productos tensoriales, como escribiste, por lo que debes usar al menos algunos métodos menos triviales para desentrañar las "partes" de los productos tensoriales.

1voto

Sora Puntos 113

$\newcommand{\tr}{\mathrm{tr}}$Para $\mathrm{SO}(N)$, la representación adjunta se puede ver como la parte antisimétrica del producto tensorial de la representación fundamental consigo misma.

En general, tenemos la siguiente propiedad para tal representación antisimétrica:

Dada una representación $(V,\rho)$, la representación $V\otimes V$ se descompone como $S^2 V \oplus \Lambda^2 V$ donde $S^2 V$ son tensores simétricos y $\Lambda^2 V$ son tensores antisimétricos, y tenemos $$ \chi_{\Lambda^2 V}(g) = \frac{1}{2}(\chi_V(g)^2 - \chi_V(g^2))$$ donde $\chi(g)$ es la traza de $\rho(g)$ en la representación correspondiente.

De esto se sigue directamente que $$\chi_{\mathfrak{so}(N)}(g) = \frac{1}{2}(\chi_\text{fund}(g)^2 - \chi_\text{fund}(g^2))$$ lo que nos da la relación deseada para $g = \mathrm{e}^{\mathrm{i}F}$. Así que, probemos la afirmación general sobre las trazas:

Sea $v_1,\dots,v_n$ una base de $V$. Entonces, $a_{ij} := v_i \otimes v_j - v_j \otimes v_i$, $j > i$ son una base de los tensores antisimétricos $\Lambda^2 V$. Los elementos de matriz de la representación $\sigma$ de $g$ en $\Lambda^2 V$ en esta base están dados por:

$$ \sigma(g)_{kl,ij} = \rho(g)_{ki}\rho(g)_{lj} - \rho(g)_{kj}\rho(g)_{li}$$

puesto que $\sigma(g)a_{ij} = (\rho(g)v_i) \otimes (\rho(g)v_j) - (\rho(g)v_j) \otimes (\rho(g)v_i)$ por definición.

Así que,

$$ \chi_{\Lambda^2 V}(g) = \tr(\sigma(g)) = \sum_{i < j} \sigma(g)_{ij,ij} = \frac{1}{2} \sum_i \sum_j \sigma(g)_{ij,ij}$$

y al insertar los elementos de matriz tenemos

$$ \chi_{\Lambda^2 V}(g) = \frac{1}{2}\sum_i\sum_j ( \rho(g)_{ii}\rho(g)_{jj} - \rho(g)_{ij}\rho(g)_{ji}) = \frac{1}{2}(\chi_V(g)^2 - \chi_V(g^2))$$

lo cual era lo que queríamos mostrar.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X