9 votos

No surjectivity de la exponencial mapa de GL(2,R)

Me pidió que muestran que el mapa exponencial $\exp: \mathfrak{g} \mapsto G$ no es surjective por demostrar que la matriz de $\left(\matrix{-1 & 0 \\ 0 & -2}\right)\in \text{GL}(2,\mathbb{R})$ no puede ser exponencial de cualquier matriz $A \in \mathfrak{gl}(2,\mathbb{R})$.


Mi prueba (editado)

Lema: Una matriz diagonal $M \in \rm{GL}(2,\mathbb{R})$ es la exponencial de una matriz de $A\in\mathfrak{gl}(2,\mathbb{R})$ si tiene autovalores positivos o único (doble) autovalor negativo.

Para cualquier matriz diagonal $A = \left(\matrix{a & 0 \\ 0 & d}\right)$,$\displaystyle\text{e}^A=\sum_{k=0}^\infty\dfrac{A^k}{k!} = \left(\matrix{\text{e}^a & 0 \\ 0 & \text{e}^d}\right)$. A continuación, $$\forall\; \lambda,\,\mu > 0, \qquad\left(\matrix{\lambda & 0 \\ 0 & \mu}\right) = \exp \left(\matrix{\ln\lambda & 0 \\ 0 & \ln\mu}\right)$$

Por el Cayley-Hamilton teorema, cada matriz cuadrada es la raíz de su polinomio característico. Por lo tanto, puedo expresar cualquier poder de $A$ como una combinación lineal de $A$ sí y la matriz de identidad. Por ejemplo, $A^2= tA-d\mathbb{I}\;$ $A^3=(t^2-d)A-td\mathbb{I}\;$ donde $t=\text{tr} A, \; d=\det A$.
De ello se desprende que $M=\text{e}^A=\alpha A+\beta\mathbb{I}\;$ (aunque no sé cómo calcular los coeficientes).

  • Si $M$ tiene distintos autovalores negativos, $\alpha \neq 0$: de lo contrario tendríamos $M = \beta \mathbb{I}$, una contradicción. Esto implica que $A$ debe ser diagonal demasiado, pero entonces no puede exponentiate a algo negativo autovalores (ver a continuación la conclusión de mi ejercicio).

  • Si $M$ tiene un autovalor doble negativo, es negativo múltiples de $\mathbb{I}$ $\alpha$ debe $0$. La observación de que $\exp\left(\matrix{0 & \pi \\ -\pi & 0}\right)=\left(\matrix{-1 & 0 \\ 0 & -1}\right)=-\mathbb{I}$ y experimentando un poco, es sencillo demostrar que $$\forall\; \lambda>0, \qquad -\lambda\mathbb{I}=\left(\matrix{-\lambda & 0 \\ 0 & -\lambda}\right)=\exp\left(\matrix{\ln\lambda & \pm\, m\pi \\ \mp\, m\pi & \ln\lambda}\right), \qquad \forall m \; \text{odd integer}$$

La conclusión es inmediata: la matriz diagonal estoy dada debe ser la exponencial de una matriz diagonal (si existe) $A = \left(\matrix{a & 0 \\ 0 & d}\right)$ tal que $\text{e}^a=-1\;\text{and}\;\text{e}^d=-2$, lo cual es imposible.


Enfoque alternativo, problemas y preguntas

Mis esfuerzos fueron dirigidos a usar ese $\exp(PXP^{-1})=P\exp XP^{-1},\; \forall X\in \mathfrak{gl}(n,\mathbb{R}),\forall P\in\text{GL}(n,\mathbb{R})$. El problema es que si $\exp X$ es una diagonal no escalares de la matriz, entonces no está en el centro de la álgebra y por lo tanto no conmuta con $P$.
Es una lástima, porque puedo (casi) siempre diagonalize $A=\left(\matrix{a & b \\ c & d}\right)$, escribir $A=PXP^{-1}$ donde $X$ diagonal:

  1. Si $\det A = 0$, desde $\text{tr}A \neq 0$, $A$ tiene dos autovalores distintos ( $0$ $\text{tr}A$ ) y es diagonalizable
  2. Si $\det A \neq 0$, la ecuación característica es $\lambda^2-\text{tr}A\lambda +\det A = 0$ y

    • si su discriminante es $\Delta \neq 0$, luego de nuevo tengo dos (posiblemente complejas) distintos autovalores y $A$ es diagonalizable.
    • si $\Delta = 0$, el único autovalor es $\lambda=\dfrac12 \text{tr}A$, cuya multiplicidad geométrica es sólo $1$ $A$ no diagonalizable.

Esta línea de pensamiento parece bastante prometedor para mí. Me preguntaba si existe alguna manera de conclusión de la prueba de la "diagonalizable $A$" caso de $P\left(\matrix{\text{e}^{\lambda_1} & 0 \\ 0 & \text{e}^{\lambda_2}}\right)P^{-1} = \left(\matrix{-1 & 0 \\ 0 & -2}\right)$ y, a continuación, para manejar el "no diagonalizable $A$" de los casos.


Pregunta extra

Yo también estaba tratando de trabajar con el resto de la propiedad $\exp(X+Y)=\exp X \exp Y \quad \text{iff}\quad [X,Y]=0$, explotación de algunos de descomposición de $A$, como $$A = \left(\matrix{a & b \\ c & d}\right) = A_{\text{sym}}+A_{\text{antisym}}\;, \quad\text{where}\quad A_{\text{sym}}=\frac12(A+A^T) \;,\;A_{\text{antisym}}=\frac12(A-A^T)$$ $$\text{or} \quad A = \left(\matrix{a & b \\ c & d}\right) = A_{\text{diag}}+A_{\text{antidiag}}\;, \quad\text{where}\quad A_{\text{diag}}=\left(\matrix{a & 0 \\ 0 & d}\right) \;,\;A_{\text{antisym}}=\left(\matrix{0 & b \\ c & 0}\right)\;. $$

Desafortunadamente, tanto la descomposición no ayuda, ya que $[A_{\text{sym}},A_{\text{antisym}}] \neq 0$, $[A_{\text{diag}},A_{\text{antidiag}}] \neq 0$.

Existe una posibilidad de que algo como esto podría conducir a una solución?

Actualización: Gracias a los Elefantes rosas, quien señaló un error en mis pruebas, he modificado la declaración de la lema y añadido algunos detalles. Creo que ahora funciona bien para mi ejercicio.

17voto

Geoff Robinson Puntos 17610

Miré a la cuestión vinculada por Marc van Leeuwen, pero pensé que iba a esbozar una diferente (aunque bastante estándar). Se trabaja con matrices complejas. Voy a escribir $\exp(A)$$e^{A}$, cuando se $A$ $n \times n$ matriz compleja. Tenga en cuenta que $\exp(MAM^{-1}) = M\exp(A)M^{-1}$ para cualquier invertible $n \times n$ matriz $M.$ Desde $MAM^{-1}$ está en forma normal de Jordan de una matriz adecuada $M,$ primero tratamos de entender $\exp(A)$ al $A$ está en forma normal de Jordan. En ese caso, en la consideración de los bloques de Jordan de a $A$ de una en una, podemos escribir $A = D+N$ donde $D$ es diagonal, $N$ es triangular superior con $0$s de la diagonal principal, y $DN = ND.$, Entonces es claro que $\exp(A) = \exp(D)\exp(N).$ $\exp(A)$ es diagonal, y $\exp(N)$ es triangular superior con $1$s en la diagonal principal. De ello se sigue que si $R$ es el conjunto de raíces de la característica polyomial de $A,$ $\exp(R)$ es el conjunto de las raíces del polinomio característico de a $\exp(A),$ con multiplicidades algebraicas coincidentes como se esperaba. Desde $MAM^{-1}$ $Mexp(A)M^{-1}$ tiene la misma característica polinomios como $A$$\exp(A)$, respectivamente, en la misma declaración se sostiene por ningún tipo de complejos, $n \times n$ matriz. Todo esto es teoría general.

Ahora podemos preguntar si hay una real $2 \times 2$ matriz $A$ tal que $\exp(A) = \left( \begin{array}{clcr}-1 & 0\\0 & -2 \end{array} \right)$. Si $A$ tiene los autovalores $\alpha$ $\beta$ (posiblemente igual), a continuación, $\exp(A)$ tiene los autovalores $e^{\alpha}$ $e^{\beta}.$ por lo tanto podemos suponer que $e^{\alpha} = -1$ $e^{\beta} = -2.$ por lo tanto $\alpha$ $\beta$ son sin duda no real de los números complejos. Sin embargo, $A$ es una verdadera matriz, por lo $\alpha$ $\beta$ son las raíces de la misma real de la ecuación cuadrática. Por lo tanto deben ser complejos conjugados. Pero, a continuación, $e^{\alpha}$ $e^{\beta}$ tienen el mismo valor absoluto, lo cual es una contradicción.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X