¿Cómo calcular el % o $\exp\left(t\begin{bmatrix}0 & z\z^* & 0\end{bmatrix}\right)$ $\exp\left(\begin{bmatrix}0 & v\w & 0\end{bmatrix}\right)$(donde: $v, w \in \mathbb{C}$) en general?
Respuestas
¿Demasiados anuncios?Por definición $e^A=\sum{j=0}^\infty \frac{A^j}{j!}$ donde $A^0=I\equiv$ la matriz identidad. Ahora tienes $A={\begin{bmatrix}0 & v\w & 0\end{bmatrix}}$. Tenga en cuenta que $A^2=vwI$, por lo que por inducción se pueden demostrar $A^{2j}=v^jw^jI$ y $A^{2j+1}=v^jw^jA$ % todos $j\ge 0$. Se deduce que\begin{align} e^A&=\sum{j=0}^\infty \frac{A^j}{j!}\ &=\sum{j=0}^\infty \frac{A^{2j}}{(2j)!}+\sum{j=0}^\infty \frac{A^{2j+1}}{(2j+1)!}\ &=\sum{j=0}^\infty \frac{v^jw^jI}{(2j)!}+\sum{j=0}^\infty \frac{v^jw^jA}{(2j+1)!}\ &=\sum{j=0}^\infty \frac{v^jw^j}{(2j)!}I+\sum{j=0}^\infty \frac{v^jw^j}{(2j+1)!}A\ &={\begin{bmatrix}\sum{j=0}^\infty \frac{v^jw^j}{(2j)!} & \sum{j=0}^\infty \frac{v^{j+1}w^j}{(2j+1)!}\\sum{j=0}^\infty \frac{v^jw^{j+1}}{(2j+1)!} & \sum{j=0}^\infty \frac{v^jw^j}{(2j)!}\end{bmatrix}} \ \end{align}
¿Desde este punto, estoy seguro que usted puede evaluar cada elemento de la matriz en la última línea, no puede usted?
Por supuesto, Naveen la respuesta es correcta en la medida en que podemos exponentiate cualquier matriz $A$ mediante el cálculo de la potencia de la serie $\sum_0^\infty (A^n/n!)$, la aplicación directa de esta técnica requiere de muchos cálculos; que es realmente un montón de trabajo. Pero la forma especial de las matrices dadas en la pregunta permitir que numerosas simplificaciones que me hizo, y un bonito, elegante solución puede ser tenido. A saber:
Vamos a calcular primero $e^W$, donde
$W = \begin{bmatrix} 0 & v \\ w & 0 \end{bmatrix}. \tag{1}$
Tenemos:
$W^2 = \begin{bmatrix} 0 & v \\ w & 0 \end{bmatrix} \begin{bmatrix} 0 & v \\ w & 0 \end{bmatrix} = \begin{bmatrix} vw & 0 \\ 0 & vw \end{bmatrix} = vwI, \tag{2}$
$W^3 = W^2W = vwIW = vwW, \tag{3}$
$W^4 = (W^2)^2 = (vwI)^2 = v^2w^2I = (vw)^2I, \tag{4}$
$W^5 = W^4W = v^2w^2IW = (vw)^2W; \tag{6}$
el patrón general que surge de (2)-(6); es
$W^{2n} = v^nw^nI = (vw)^nI, \tag{7}$
$W^{2n + 1} = W^{2n}W = v^nw^nW = (vw)^nW; \tag{8}$
(7)-(8) puede ser fácilmente validado por una muy sencilla de inducción; de hecho, si
$W^{2k} = (vw)^kI, \tag{9}$
entonces
$W^{2(k + 1)} = W^{2k + 2} = W^{2k}W^2 = ((vw)^kI)(vwI) = (vw)^{k + 1}I; \tag{10}$
y si
$W^{2k + 1} = v^kw^kW = (vw)^kW, \tag{11}$
entonces
$W^{2(k + 1) + 1} = W^{2k + 3} = W^{2k + 1}W^2 = ((vw)^kW)(vwI) = (vw)^{k + 1}W; \tag{12}$
así vemos que (7)-(8) son válidas para todos los $n \ge 0$. Basado en estas relaciones, se calculan $e^W$
$e^W = \sum_0^\infty \dfrac{W^n}{n!} = \sum_0^\infty \dfrac{W^{2n}}{(2n)!} + \sum_0^\infty \dfrac{W^{2n + 1}}{(2n + 1)!}, \tag{13}$
donde hemos roto la serie en potencias pares e impares de $W$. Tenemos, usando (7), (8):
$\sum_0^\infty \dfrac{W^{2n}}{(2n)!} = \sum_0^\infty \dfrac{(vw)^nI}{(2n)!} = (\sum_0^ \infty \dfrac{(vw)^n}{(2n)!})I, \tag{14}$
y
$\sum_0^\infty \dfrac{W^{2n + 1}}{(2n + 1)!} = \sum_0^\infty \dfrac{(vw)^nW}{(2n + 1)} = (\sum_0^\infty \dfrac{(vw)^n}{(2n + 1)!})W; \tag{15}$
si ahora nos elija $r \in \Bbb C$ tal que $r^2 = vw$, y volver a montar (13) con (14) y (15) $r^2$ en lugar de $vw$, la obtención de
$e^W = (\sum_0^\infty \dfrac{r^{2n}}{(2n!)})I + (\sum_0^\infty \dfrac{r^{2n}}{(2n + 1)!})W. \tag{16}$
Ahora nos rama y el tratamiento de los dos casos $r = 0$, $r \ne 0$ por separado. En primer lugar, si $r \ne 0$, podemos re-escribir (16) en el formulario
$e^W = (\sum_0^\infty \dfrac{r^{2n}}{(2n)!})I+ (\sum_0^\infty \dfrac{r^{2n + 1}}{(2n + 1)!})\dfrac{W}{r}. \tag{17}$
Ahora podemos observar que la primera suma en (17) consiste, precisamente, de los términos del grado de
$e^r = \sum_0^\infty \dfrac{r^n}{n!}, \tag{18}$
como tal, es en el hecho de $\cosh r = (e^r + e^{-r})/2$, en el que el extraño términos del grado todas cancelar; del mismo modo que la segunda suma es $\sinh r = (e^r - e^{-r})/2$, los términos de grado de la cancelación en este caso. Así
$e^W = (\cosh r) I + (\sinh r) \dfrac{W}{r}; \tag{19}$
en el caso de que $r = 0$, vemos directamente de (16) que
$e^W = I + W, \tag{20}$
lo cual es consistente con el límite de (19) como $r \to 0$, ya que el $\lim_{r \to 0} \sinh r/ r = 1$, como fácilmente puede verse a partir de la definición de $\sinh r = (e^r - e^{-r})/2$. En efecto, la función $\sigma(r) = \sinh r /r$ es un bien definido analítica de la función de $r$, como puede verse por la inspección de la alimentación de la serie para $\sinh r / r$:
$\sigma(r) = \dfrac{\sinh r}{r} = \sum_0^\infty \dfrac{r^{2n}}{(2n + 1)!}. \tag{21}$
Es evidente que (19), es un estructuralmente iluminador y un computacionalmente eficiente representación de $e^W$, ya que no sólo presenta $e^W$ en una forma en la cual expone los diferentes aspectos de su expansión como una combinación lineal de potencias de $W$, pero también representa un método para evaluar las $e^W$ que requiere mucho menos esfuerzo que el directo de la matriz de expansión de la potencia de la serie $e^W$ según lo sugerido por Naveen. Habiendo tomado nota de estas cosas, vamos a proceder.
Con las fórmulas (19) y (20) a nuestra disposición, configuración
$W = t\begin{bmatrix} 0 & z \\ z^\ast & 0 \end{bmatrix} = \begin{bmatrix} 0 & tz \\ tz^\ast & 0 \end{bmatrix} = tZ, \tag{22}$
donde
$Z = \begin{bmatrix} 0 & z \\ z^\ast & 0 \end{bmatrix}; \tag{23}$
a continuación, con $v = tz$$w = tz^\ast$,$r^2 = t^2zz^\ast = t^2 \vert z \vert^2$, así que podemos tomar la $r = t \vert z \vert$. (19) los rendimientos
$e^{tZ} = (\cosh t \vert z \vert) I + (\sinh t \vert z \vert) \dfrac{tZ}{t \vert z \vert} = (\cosh t \vert z \vert) I + (\sinh t \vert z \vert) \dfrac{Z}{\vert z \vert}. \tag{24}$
Un par de observaciones finales relativas a la elección de $r = t \vert z \vert$: el lector recordará que $r$ sólo tiene que satisfacer $r^2 = vw$ o $r^2 = \vert t^2 zz^\ast \vert$; claramente, el $r = t \vert z \vert$ cumple con este requisito, así como las opciones $r = -t \vert z \vert$, $r = \vert tz \vert$, $r = - \vert tz \vert$ etc. De hecho, la selección de $r$ ni siquiera tiene que ser continua con respecto a $u, v$ o $t, \vert z \vert$, pero $r^2$. Elegí $r = t\vert z \vert$ porque, de todas estas opciones, hace que el $t$-dependencia más claro. Al menos el Tuyo de Verdad.
Espero que esto ayude. ¡Hasta la vista,
y como siempre,
Fiat Lux!!!
Que $A=\pmatrix{0&v\ w&0}$ y $x$ ser cualquier número complejo tal que $vw=-x^2$. Por el teorema de Cayley-Hamilton, $A^2 = \operatorname{trace}(A)A-\det(A)I = vwI = -x^2I$. Por lo tanto, cuando $vw\ne0$ (para que $x\ne0$), \begin{align} e^A &= I+A+\frac{A^2}{2!}+\frac{A^3}{3!}+\ldots\ &= \left(I+\frac{A^2}{2!}+\frac{A^4}{4!}+\ldots\right) +\left(A+\frac{A^3}{3!}+\frac{A^5}{5!}+\ldots\right)\ &= \left(1-\frac{x^2}{2!}+\frac{x^4}{4!}-\ldots\right)I +\left(1-\frac{x^2}{3!}+\frac{x^4}{5!}-\ldots\right)A\ &= \cos(x)I+\frac{\sin(x)}{x}A.\tag{1} \end{align} puesto que la función exponencial es continua, cuando $vw=0$, podemos tomar el límite de $(1)$ $x\to0$ obtener ese $e^A= I+A$.