Me pidió que muestran que el mapa exponencial $\exp: \mathfrak{g} \mapsto G$ no es surjective por demostrar que la matriz de $\left(\matrix{-1 & 0 \\ 0 & -2}\right)\in \text{GL}(2,\mathbb{R})$ no puede ser exponencial de cualquier matriz $A \in \mathfrak{gl}(2,\mathbb{R})$.
Mi prueba (editado)
Lema: Una matriz diagonal $M \in \rm{GL}(2,\mathbb{R})$ es la exponencial de una matriz de $A\in\mathfrak{gl}(2,\mathbb{R})$ si tiene autovalores positivos o único (doble) autovalor negativo.
Para cualquier matriz diagonal $A = \left(\matrix{a & 0 \\ 0 & d}\right)$,$\displaystyle\text{e}^A=\sum_{k=0}^\infty\dfrac{A^k}{k!} = \left(\matrix{\text{e}^a & 0 \\ 0 & \text{e}^d}\right)$. A continuación, $$\forall\; \lambda,\,\mu > 0, \qquad\left(\matrix{\lambda & 0 \\ 0 & \mu}\right) = \exp \left(\matrix{\ln\lambda & 0 \\ 0 & \ln\mu}\right)$$
Por el Cayley-Hamilton teorema, cada matriz cuadrada es la raíz de su polinomio característico. Por lo tanto, puedo expresar cualquier poder de $A$ como una combinación lineal de $A$ sí y la matriz de identidad. Por ejemplo, $A^2= tA-d\mathbb{I}\;$ $A^3=(t^2-d)A-td\mathbb{I}\;$ donde $t=\text{tr} A, \; d=\det A$.
De ello se desprende que $M=\text{e}^A=\alpha A+\beta\mathbb{I}\;$ (aunque no sé cómo calcular los coeficientes).
Si $M$ tiene distintos autovalores negativos, $\alpha \neq 0$: de lo contrario tendríamos $M = \beta \mathbb{I}$, una contradicción. Esto implica que $A$ debe ser diagonal demasiado, pero entonces no puede exponentiate a algo negativo autovalores (ver a continuación la conclusión de mi ejercicio).
Si $M$ tiene un autovalor doble negativo, es negativo múltiples de $\mathbb{I}$ $\alpha$ debe $0$. La observación de que $\exp\left(\matrix{0 & \pi \\ -\pi & 0}\right)=\left(\matrix{-1 & 0 \\ 0 & -1}\right)=-\mathbb{I}$ y experimentando un poco, es sencillo demostrar que $$\forall\; \lambda>0, \qquad -\lambda\mathbb{I}=\left(\matrix{-\lambda & 0 \\ 0 & -\lambda}\right)=\exp\left(\matrix{\ln\lambda & \pm\, m\pi \\ \mp\, m\pi & \ln\lambda}\right), \qquad \forall m \; \text{odd integer}$$
La conclusión es inmediata: la matriz diagonal estoy dada debe ser la exponencial de una matriz diagonal (si existe) $A = \left(\matrix{a & 0 \\ 0 & d}\right)$ tal que $\text{e}^a=-1\;\text{and}\;\text{e}^d=-2$, lo cual es imposible.
Enfoque alternativo, problemas y preguntas
Mis esfuerzos fueron dirigidos a usar ese $\exp(PXP^{-1})=P\exp XP^{-1},\; \forall X\in \mathfrak{gl}(n,\mathbb{R}),\forall P\in\text{GL}(n,\mathbb{R})$. El problema es que si $\exp X$ es una diagonal no escalares de la matriz, entonces no está en el centro de la álgebra y por lo tanto no conmuta con $P$.
Es una lástima, porque puedo (casi) siempre diagonalize $A=\left(\matrix{a & b \\ c & d}\right)$, escribir $A=PXP^{-1}$ donde $X$ diagonal:
- Si $\det A = 0$, desde $\text{tr}A \neq 0$, $A$ tiene dos autovalores distintos ( $0$ $\text{tr}A$ ) y es diagonalizable
-
Si $\det A \neq 0$, la ecuación característica es $\lambda^2-\text{tr}A\lambda +\det A = 0$ y
- si su discriminante es $\Delta \neq 0$, luego de nuevo tengo dos (posiblemente complejas) distintos autovalores y $A$ es diagonalizable.
- si $\Delta = 0$, el único autovalor es $\lambda=\dfrac12 \text{tr}A$, cuya multiplicidad geométrica es sólo $1$ $A$ no diagonalizable.
Esta línea de pensamiento parece bastante prometedor para mí. Me preguntaba si existe alguna manera de conclusión de la prueba de la "diagonalizable $A$" caso de $P\left(\matrix{\text{e}^{\lambda_1} & 0 \\ 0 & \text{e}^{\lambda_2}}\right)P^{-1} = \left(\matrix{-1 & 0 \\ 0 & -2}\right)$ y, a continuación, para manejar el "no diagonalizable $A$" de los casos.
Pregunta extra
Yo también estaba tratando de trabajar con el resto de la propiedad $\exp(X+Y)=\exp X \exp Y \quad \text{iff}\quad [X,Y]=0$, explotación de algunos de descomposición de $A$, como $$A = \left(\matrix{a & b \\ c & d}\right) = A_{\text{sym}}+A_{\text{antisym}}\;, \quad\text{where}\quad A_{\text{sym}}=\frac12(A+A^T) \;,\;A_{\text{antisym}}=\frac12(A-A^T)$$ $$\text{or} \quad A = \left(\matrix{a & b \\ c & d}\right) = A_{\text{diag}}+A_{\text{antidiag}}\;, \quad\text{where}\quad A_{\text{diag}}=\left(\matrix{a & 0 \\ 0 & d}\right) \;,\;A_{\text{antisym}}=\left(\matrix{0 & b \\ c & 0}\right)\;. $$
Desafortunadamente, tanto la descomposición no ayuda, ya que $[A_{\text{sym}},A_{\text{antisym}}] \neq 0$, $[A_{\text{diag}},A_{\text{antidiag}}] \neq 0$.
Existe una posibilidad de que algo como esto podría conducir a una solución?
Actualización: Gracias a los Elefantes rosas, quien señaló un error en mis pruebas, he modificado la declaración de la lema y añadido algunos detalles. Creo que ahora funciona bien para mi ejercicio.