10 votos

Mostrar las álgebras de Lie $\mathfrak{su}(2)$ y $\mathfrak{sl}(2,\mathbb{R})$ no son isomorfas.

Estoy trabajando en los ejercicios de "Lie Groups, Lie Algebras, and Representations" - Hall y no puedo completar el ejercicio 11 del capítulo 3. Mi objetivo era demostrar que no existe un isomorfismo del espacio vectorial $A$ entre los dos espacios que también preserva el conmutador.
$$[AX, AY] = A[X, Y]$$ Para ello he calculado las siguientes relaciones de conmutación en bases para dos espacios.

Para el $\mathfrak{su}(2)$ matrices de base $e_1, e_2, e_3$ sostiene que $$[e_1, e_2] = 2e_3 \,\,\,\,\,\, [e_1, e_3] = -2e_2 \,\,\,\,\,\, [e_2, e_3] = 2e_1$$

Para el $\mathfrak{sl}(2, \mathbb{R})$ matrices de base $f_1, f_2, f_3$ sostiene que $$[f_1, f_2] = 2f_2 \,\,\,\,\,\, [f_1, f_3] = -2f_3 \,\,\,\,\,\, [f_2, f_3] = f_1$$

Está claro que para la biyección lineal $(e_1, e_2, e_3) \mapsto (f_1, f_2, f_3)$ no conservaría las relaciones, como tampoco lo haría una permutación de las matrices de destino. Sin embargo, necesito demostrar que ninguna matriz invertible satisface $$[AX, AY] = A[X, Y]$$ Así que a partir de ahí empecé a derivar ecuaciones para los elementos de $A$ . Son expresiones feas en términos de los subdeterminantes de la $A$ matriz, y teniendo en cuenta que no se me ocurre una forma de concluir $A$ no puede existir. ¿Hay alguna manera más fácil de terminar la prueba que derivar las ecuaciones para $A$ ?

Nota: He buscado soluciones para este problema y la única técnica que veo insinuada es considerar las formas de matar (que aún no han sido tratadas en este libro).

1 votos

Sl tiene un elemento cuyo anuncio es diagonakizablr. ¿Su también tiene uno?

0 votos

@MarianoSuárez-Alvarez He arreglado las relaciones de conmutatividad anteriores para $su(2)$ y a partir de ahí se determina: uno de los elementos base de $sl(2)$ tiene un anuncio diagonalizable. Los tres elementos base de $su(2)$ tienen ad diagonalizable si permitimos valores propios imaginarios, y ninguno de ellos lo es en caso contrario. Sin embargo, no estoy seguro de cómo utilizar esta observación.

0 votos

Un isomorfismo $f:su(2)\to su(3)$ tiene que mapear un elemento diagonalizable a un elemento diagonalizable.

6voto

Dietrich Burde Puntos 28541

Su enfoque funciona sin problemas, si escribe la condición $[Ax,Ay]=A[x,y]$ para todos $x,y$ en términos de $9$ coeficientes de la matriz $A$ . Las ecuaciones polinómicas en estos $9$ desconocidos sobre $\mathbb{R}$ ceder rápidamente $\det(A)=0$ una contradicción.

Otro argumento elemental es el siguiente. $\mathfrak{sl}(2,\mathbb{R})$ tiene un $2$ -subálgebra dimensional, por ejemplo, $\mathfrak{a}=\langle f_1,f_2\rangle$ pero $\mathfrak{su}(2)$ no tiene $2$ -subálgebra dimensional. Por lo tanto, no pueden ser isomorfas.

0 votos

(+1) Muy útil. He comprobado la segunda técnica de prueba (mucho más limpia, y ciertamente utiliza conceptos que se han tratado). Intentaré terminar usando la técnica original para ver cómo se llega rápidamente a $det(A) = 0$ .

0 votos

¿Podría dar una explicación explícita de su primer argumento? Después de desordenar los cálculos, no veo cómo esto es cierto. El cálculo que se da en la respuesta de abajo no es obviamente correcto.

0 votos

@GK1202 Simplemente escribí las ecuaciones e hice algunas sustituciones fáciles de las variables (la parte afín, es decir, varias variables (de la matriz $A$ ) pueden ser expresadas por las otras variables, así que ecuaciones "lineales", si quieres). Entonces obtengo algunas ecuaciones polinómicas fáciles y $\det(A)=0$ una contradicción.

5voto

muaddib Puntos 6459

Esta es una respuesta de estilo Q&A que no pretende ser la respuesta definitiva a la pregunta. Desarrolla una de las técnicas sugeridas por Dietrich Burde para futuros lectores.

Otro argumento elemental es el siguiente. $\mathfrak{sl}(2,\mathbb{R})$ tiene un $2$ -subálgebra dimensional, por ejemplo, $\mathfrak{a}=\langle f_1,f_2\rangle$ pero $\mathfrak{su}(2)$ no tiene $2$ -subálgebra dimensional. Por lo tanto, no pueden ser isomorfas.


$\mathfrak{sl}(2, \mathbb{R})$ tiene un subespacio bidimensional.

Consideremos las matrices de la forma $\alpha_1 f_1 + \alpha_2 f_2$ . Es evidente que se trata de un subespacio de $\mathfrak{sl}(2)$ . Tenemos que demostrar que la operación de conmutación es cerrada en este subespacio: $$[\alpha_1 f_1 + \alpha_2 f_2, \beta_1 f_1 + \beta_2 f_2] = 2(\alpha_1\beta_2 - \alpha_2\beta_1)f_2$$

$\mathfrak{su}(2)$ no tiene un subespacio bidimensional.

Consideremos un subespacio bidimensional con base $g_1, g_2$ . Entonces $$[\alpha_1 g_1 + \alpha_2 g_2, \beta_1 g_1 + \beta_2 g_2] = (\alpha_1\beta_2 - \alpha_2\beta_1)[g_1, g_2]$$ Debemos demostrar que $g_1, g_2$ no se puede elegir tal $[g_1, g_2]$ se encuentra en el tramo de $g_1, g_2$ . Para ello, dejemos que $g_1 = \sum_i a_i e_i, g_2 = \sum b_i e_i$ . Se puede demostrar mediante un cálculo directo que $$[g_1, g_2] = \begin{vmatrix} 2 e_1 & a_1 & b_1 \\ 2 e_2 & a_2 & b_2 \\ 2 e_3 & a_3 & b_3 \notag \end{vmatrix}$$ En otras palabras, el conmutador de $g_1$ y $g_2$ es el doble de su producto cruzado. Como el producto cruzado es perpendicular a $g_1, g_2$ hemos terminado.

4voto

muaddib Puntos 6459

(Advertencia: Ver los comentarios debajo de este post - esta respuesta es incorrecta actualmente. Se ha publicado una respuesta completa en math.stackexchange.com/a/4032652/96384 )

Esta es una respuesta de estilo Q&A que no pretende ser la respuesta final a la pregunta. Completa la técnica original para futuros lectores. Gracias a Dietrich Burde por la motivación para continuar con ella.

Como en el caso anterior, supongamos $A$ es un isomorfismo de $\mathfrak{su}(2) \to \mathfrak{sl}(2, \mathbb{R})$ . Entonces $$[AX, AY] = A[X, Y]$$

Dejemos que $A_i$ denotan los vectores columna de $A$ . Entonces $$Ae_i = \sum_j A_{ij} f_j$$ Utilizamos $[Ae_1, Ae_2] = A[e_1, e_2]$ para obtener $$2\begin{vmatrix} A_{11} & A_{21} \\ A_{12} & A_{22} \end{vmatrix}f_2 + 2\begin{vmatrix} A_{11} & A_{21} \\ A_{13} & A_{23} \end{vmatrix}(-f_3) + \begin{vmatrix} A_{12} & A_{22} \\ A_{13} & A_{23} \end{vmatrix}f_1 = 2 (A_{31}f_1 + A_{32}f_2 + A_{33}f_3)$$ Combinando estas tres ecuaciones implícitas con la expansión del cofactor del determinante: $$\begin{vmatrix} A_{11} & A_{21} & A_{31} \\ A_{12} & A_{22} & A_{32} \\ A_{13} & A_{23} & A_{33} \end{vmatrix} = A_{31}\begin{vmatrix} A_{12} & A_{22} \\ A_{13} & A_{23} \end{vmatrix} - A_{32}\begin{vmatrix} A_{11} & A_{21} \\ A_{13} & A_{23} \end{vmatrix} + A_{33}\begin{vmatrix} A_{11} & A_{21} \\ A_{12} & A_{22} \end{vmatrix} $$ obtenemos: $$\det(A) = 2 A_{31}^2 + A_{32}A_{33} + A_{33}A_{32}$$ Utilizando las otras dos relaciones de conmutatividad obtenemos: $$\det(A) = 2 A_{11}^2 + 2 A_{12} A_{13}$$ $$\det(A) = 2 A_{21}^2 + 2 A_{22} A_{23}$$

4 votos

Muy bonito. Esto muestra el reclamo de la manera más directa. Creo que es importante ver esta forma, aunque hay otras formas más conceptuales. Sobre campos de características primarias, muchos argumentos "inteligentes" se equivocan rápidamente, pero este enfoque siempre funciona (y puede hacerlo un ordenador).

0 votos

Este cálculo me parece erróneo. La expansión de los cofactores obviamente no es correcta.

0 votos

¿Cuál es entonces el error evidente?

4voto

Sólo para añadir otro método a esta bonita colección de respuestas:

Se ve fácilmente que $\mathfrak{sl}(2, \mathbb R)$ tiene muchos elementos adnilpotentes además de $0$ (por ejemplo, en su presentación $f_1$ y $f_2$ ), mientras que se puede demostrar que $\mathfrak{su}_2$ no tiene ningún elemento adnilpotente $\neq 0$ .

Para ver este último hecho, se pueden calcular los valores propios de $ad$ de un elemento general, o utilice el siguiente atajo: Sabemos que $\mathfrak{su}_2$ tiene una representación estándar en $\mathbb C^2$ que lo identifica con las matrices

$$\pmatrix{ai&b+ci\\-b+ci&-ai}$$

( $a,b,c \in \mathbb R$ ); ahora bien, si algún elemento fuera $ad$ -nilpotente, entonces debe actuar de forma nilpotente en cualquier representación, es decir, la matriz anterior también tendría que ser nilpotente, en particular tener determinante evanescente. Pero su determinante es $a^2+b^2+c^2$ que es $\neq 0$ a menos que $a=b=c=0$ .


Lo bueno de este método es que es un caso especial de un hecho general Me ha resultado útil:

Entre las álgebras de Lie reales semisimples, las del compacto formas (como $\mathfrak{su}_n$ ) son precisamente las que no tienen elementos nilpotentes no triviales.

1voto

muaddib Puntos 6459

Esta es una respuesta de estilo Q&A que no pretende ser la respuesta definitiva a la pregunta. Desarrolla una de las técnicas sugeridas por Mariano Suárez-Alvarez para futuros lectores.

Un isomorfismo $f:\mathfrak{su}(2) \to \mathfrak{su}(3)$ tiene que asignar un elemento diagonalizable a un elemento diagonalizable.

No es exactamente la misma técnica, pero se inspira en ella. En su lugar utilizaré que si existiera un isomorfismo entre $\mathfrak{su}(2)$ y $\mathfrak{sl}(2, \mathbb{R})$ entonces el homomorfismo inducido en sus representaciones adjuntas tendría que preservar la diagonalizabilidad de las matrices. Esto lleva a una contradicción.

La siguiente proposición se inspira en Los homomorfismos del álgebra de Lie preservan la forma de Jordan :

Supongamos que las álgebras de Lie $\mathfrak{g}, \mathfrak{h}$ son isomorfas. Denotemos el isomorfismo como $\phi : \mathfrak{g} \to \mathfrak{h}$ . Entonces, para todo diagonalizable $ad_X \in ad_\mathfrak{g}$ , $\phi^*(ad_X) \in ad_\mathfrak{h}$ es diagonalizable (donde $\phi^*$ es el homomorfismo inducido entre las representaciones adjuntas). En particular, si $\lambda_i$ , $Y_i$ es un par de valores propios y vectores propios de $ad_X$ entonces $\lambda_i$ , $\phi(Y_i)$ es un par de valores propios, valores propios de $ad_{\phi(X)}$ .

Supongamos que $ad_X$ es diagonalizable con valores propios $\lambda_i$ y los vectores propios $Y_i$ . Entonces $$ad_X(Y_i) = \lambda_i Y_i$$ Queremos demostrar que $\phi(Y_i)$ es un vector propio de $\phi^*(ad_X)$ .

\begin{eqnarray*} \phi^*(ad_X)(\phi(Y_i)) &=& ad_{\phi(X)}(\phi(Y_i)) \\ &=& [\phi(X), \phi(Y_i)] \\ &=& \phi([X, Y_i]) \\ &=& \phi(ad_X(Y_i)) \\ &=& \lambda_i\phi(Y_i) \\ \end{eqnarray*}

Ahora, utilizando las relaciones de conmutatividad indicadas en el problema, podemos calcular la representación adjunta de $\mathfrak{su}(2)$ : $$ ad_{e_1} = \begin{bmatrix} 0 & 0 & 0 \\ 0 & 0 & -2 \\ 0 & 2 & 0 \end{bmatrix} \,\,\,\,\, ad_{e_2} = \begin{bmatrix} 0 & 0 & 2 \\ 0 & 0 & 0 \\ -2 & 0 & 0 \end{bmatrix}\,\,\,\,\, ad_{e_3} = \begin{bmatrix} 0 & -2 & 0 \\ 2 & 0 & 0 \\ 0 & 0 & 0 \end{bmatrix}$$

Para $\mathfrak{sl}(2, \mathbb{R})$ encontramos: $$ ad_{f_1} = \begin{bmatrix} 0 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & -2 \end{bmatrix} \,\,\,\,\, ad_{f_2} = \begin{bmatrix} 0 & 0 & 1 \\ -2 & 0 & 0 \\ 0 & 0 & 0 \end{bmatrix}\,\,\,\,\, ad_{f_3} = \begin{bmatrix} 0 & -1 & 0 \\ 0 & 0 & 0 \\ 2 & 0 & 0 \end{bmatrix}$$

Supongamos que $\phi$ es un isomorfismo entre $\mathfrak{sl}(2, \mathbb{R})$ y $\mathfrak(su)(2)$ y que $$\phi(f_1) = a_1 e_1 + a_2 e_2 + a_3 e_3$$ Ahora cualquier combinación lineal de las matrices $ad_{e_i}$ es asimétrica, lo que significa que tiene valores propios imaginarios. Por otro lado, la matriz $ad_{f_1}$ tiene valores propios $0, -2, 2$ . Consideremos el par valor propio, vector propio $-2, v$ de $f_1$ . No hay manera de que $\phi(v)$ puede ser un vector propio de $\phi(f_1)$ con valor propio $-2$ Así que tenemos una contradicción.

1 votos

Sólo has comprobado que los elementos de la base no son diagonalizables, pero eso no es suficiente.

0 votos

Si se recuerda que el soporte en su es esencialmente el producto vectorial, es casi obvio que ningún elemento no nulo es diagonalizable.

0 votos

@MarianoSuárez-Alvarez ajá, no lo veo, pero gracias por el comentario, jugaré con la idea.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X