8 votos

Cuestión asintótica sobre exponenciales ordenadas en el tiempo

Sea $A(t)$ sea una función suave de $[-1,1]$ a la $n \times n$ matrices complejas. Definir la exponencial ordenada en el tiempo $$\prod_{-1}^1 \exp(A(t) dt)$$ como en esta pregunta como límite de los productos de Riemann $\prod_{i=1}^n \exp(f(t^{\ast}_i) \ \delta t_i)$ .

La cantidad real que me interesa es $$B(r) = \prod_{-1}^1 \exp(r A(t) dt)$$ como $r \to \infty$ .

En $r \to 0$ existe una expansión en serie de potencias conocida para $B(r)$ llamada Serie Magnus . En $r \to \infty$ esperaría que hubiera algo como el aproximación a la fase estacionaria pero no he sido capaz de encontrarlo o averiguarlo.

Debo mencionar que en mi situación, $A(t)$ obedece a $$A(-t) = A(t)^{\ast} \quad (\dagger)$$ donde $\ast$ es la transposición conjugada. Condición $(\dagger)$ implica que $B(r)$ es hermitiana. No sé si esto es útil de alguna manera.

7voto

ema Puntos 2346

Esta pregunta tiene solución en este documento aunque sea con la jerga y la notación de la física teórica. Así pues, utilizaré una notación algo diferente y cambiaré

$${\bf A}(t)\rightarrow -i{\bf A}(t).$$

A continuación, calcularé los valores y vectores propios de ${\bf A}(t)$ a través de

$${A}(t)|n;t\rangle=\lambda_n(t)|n;t\rangle.$$

Ahora, se obtiene una serie con un término de orden principal

$${\bf B}(r)=\sum_n e^{i\gamma_n}e^{-ir\int_{-1}^1 dt\lambda_n(t)}|n;1\rangle\langle n;-1| \qquad r\rightarrow\infty$$

en $\gamma_n=\int_{-1}^1dt\langle n;t|i\partial_t|n;t\rangle$ conocido como fase geométrica . Entonces, una expansión en la inversa de $r$ puede obtenerse con la matriz

$$\tilde {\bf A}(t)=-\sum_{n,m,n\ne m}e^{i(\gamma_n(t)-\gamma_m(t))}e^{-ir\int_{t_0}^tdt[\lambda_m(t)-\lambda_n(t)]}\langle m;t|i\partial_t|n;t\rangle|m;t_0\rangle\langle m;t_0|$$

siendo en este caso

$$\tilde {\bf B}(r)=\prod_{-1}^1e^{-i\tilde {\bf A}(t)dt}$$

para que

$$B(r)=\sum_n e^{i\gamma_n}e^{-ir\int_{-1}^1 dt\lambda_n(t)}|n;1\rangle\langle n;-1|\tilde {\bf B}(r).$$

Esto representa una solución de la ecuación de Schroedinger

$$-ir{\bf A}(t)B(r;t,t_0)=\partial_tB(r;t,t_0)$$

en el intervalo $t\in [-1,1]$ y $r\rightarrow\infty$ .

Un ejemplo :

$$ A(t) = \frac{1}{1+t^2} \begin{pmatrix} 2 & t\\ -t & -2 \end{pmatrix} $$

y hay que resolver el problema $$ \dot U(t)=rA(t)U(t) $$ con $r\gg 1$ . Queremos aplicar la técnica descrita anteriormente. Observamos que $A(t)$ no es hermitiana y por tanto, resolviendo el problema de valores propios, obtenemos $\lambda_{\pm}=\pm r\frac{\sqrt{4-t^2}}{1+t^2}$ y $$ v_+=\frac{1}{2}\begin{pmatrix} \sqrt{2+\sqrt{4-t^2}}\\ -\frac{t}{\sqrt{2+\sqrt{4-t^2}}}\end{pmatrix} \qquad v_-=\frac{1}{2}\begin{pmatrix}-\frac{t}{\sqrt{2+\sqrt{4-t^2}}} \\ \sqrt{2+\sqrt{4-t^2}}\end{pmatrix}. $$ Pero $v_+^Tv_-\ne 0$ por lo que estos vectores no son ortogonales. Tenemos que resolver también el problema de valores propios $u^T(A-\lambda I)=0$ produciendo los siguientes vectores propios $$ u_+=\frac{1}{2}\begin{pmatrix} \sqrt{2+\sqrt{4-t^2}}\\ \frac{t}{\sqrt{2+\sqrt{4-t^2}}}\end{pmatrix} \qquad u_-=\frac{1}{2}\begin{pmatrix} \frac{t}{\sqrt{2+\sqrt{4-t^2}}} \\ \sqrt{2+\sqrt{4-t^2}}\end{pmatrix}. $$ Es fácil ver que $u_+^Tv_-=u_-^Tv_+=0$ . Es importante señalar que $\lambda(t)=\lambda(-t)$ y $u_+(-t)=v_-(t)$ y $u_-(-t)=v_+(t)$ y así, estos vectores propios sólo están representando una evolución hacia atrás en el tiempo. Ahora, queremos estudiar la evolución temporal de un vector propio genérico $$ \phi(t)=\begin{pmatrix}\phi_+(t) \\ \phi_-(t)\end{pmatrix} $$ y esto se puede hacer poniendo $$ \phi(t)=c_+(t)e^{r\int_0^tdt'\frac{\sqrt{4-t^{'2}}}{1+t^{'2}}}v_+(t)+ c_-(t)e^{-r\int_0^tdt'\frac{\sqrt{4-t^{'2}}}{1+t^{'2}}}v_-(t) $$ que producirá el conjunto de ecuaciones $$ \dot c_+=\gamma_+c_++e^{-2r\int_0^tdt'\frac{\sqrt{4-t^{'2}}}{1+t^{'2}}}\frac{u_+^T\frac{dv_-}{dt}}{u_+^Tv_+}c_- $$

$$ \dot c_-=\gamma_-c_-+e^{2r\int_0^tdt'\frac{\sqrt{4-t^{'2}}}{1+t^{'2}}}\frac{u_-^T\frac{dv_+}{dt}}{u_-^Tv_-}c_+ $$ habiendo establecido $\gamma_+=\frac{u_+^T\frac{dv_+}{dt}}{u_+^Tv_+}$ y $\gamma_-=\frac{u_-^T\frac{dv_-}{dt}}{u_-^Tv_-}$ . Estas ecuaciones son interesantes porque proporcionan la forma en que se forma la evolución del tiempo en un caso no hermitiano. Pero esto también nos está diciendo que cada componente puede evolucionar en el tiempo de forma diferente: Uno puede ser realmente más pequeño que el otro para $r\gg 1$ . Pero también podemos entender la forma de las correcciones de orden superior:

$$ c_+(t)=c_+(0)+\int_0^tdt'e^{\int_0^{t'}dt''(\gamma_+(t'')-\gamma_-(t''))}e^{-2r\int_0^{t'}dt''\frac{\sqrt{4-t^{''2}}}{1+t^{''2}}}\frac{u_+^T\frac{dv_-}{dt''}}{u_+^Tv_+}c_-(0)+\ldots. $$

Utilizando una técnica de punto de silla, podemos descubrir aquí que la corrección es exponencialmente pequeña y no se puede afirmar que sea algo así como $e^{r}/r^k$ en el caso general.

Consideremos ahora el caso simple $c_+(0)=1$ y $c_-(0)=0$ . La solución aproximada será

$$ \phi_+(t)=\frac{1}{2}\sqrt{2+\sqrt{4-t^2}}e^{r\int_0^{t}dt'\frac{\sqrt{4-t^{'2}}}{1+t^{'2}}} \qquad \phi_-(t)=-\frac{1}{2}\frac{t}{\sqrt{2+\sqrt{4-t^2}}}e^{r\int_0^{t}dt'\frac{\sqrt{4-t^{'2}}}{1+t^{'2}}} $$

y resolviendo numéricamente el conjunto de ecuaciones diferenciales para $r=50$ obtenemos lo siguiente

     (fuente: Wayback Machine)

El acuerdo es sorprendentemente bueno.

3voto

sickgemini Puntos 2001

Creo que ya veo lo que me confundía. Esto es realmente un comentario, pero es demasiado largo para el hilo de comentarios. Como ejemplo, tomemos $$A(t) = \frac{1}{1+t^2} \begin{pmatrix} 2 & t \\ -t & -2 \end{pmatrix}$$ Así que queremos resolver la ecuación diferencial $U'(t) = r A(t) U(t)$ donde $U$ es un $2 \times 2$ matriz con condición inicial $U(-1) = \mathrm{Id}$ .

En realidad podemos calcular los valores propios de $A(t)$ explícitamente: Son $\sqrt{4-t^2}/(1+t^2)$ . Calculamos $\int_{-1}^1 \pm \sqrt{4-t^2}/(1+t^2) dt \approx \pm 3.03022$ . Así que su fórmula, como yo lo entiendo, es $$U(1) = e^{3.03022 r} u_1 v_1^T + e^{-3.03022 r} u_2 v_2^T + \cdots$$ donde $u_i$ y $v_i$ son los vectores propios de $A(-1)$ y $A(1)$ .

Lo que creo que me confundía es que es algo engañoso llamar a esto los términos principales. Los términos posteriores de la serie se parecen a $e^{3.03022 r} r^{-k} (\mbox{stuff})$ ¿verdad? Así que en realidad dominan el $e^{-3.03022 r}$ plazo.


Ojalá no me costara tanto conseguir buenos datos numéricos, probablemente aclararía mucho mi confusión. Mientras tanto, he aquí por qué estoy preocupado.

Sea $A(t)$ , $B(t)$ y $C(t)$ ser tres $2 \times 2$ funciones matriciales como las anteriores, con $A(1)=B(1)=C(1)$ (y, por tanto, lo mismo en $-1$ .) Sea $X(r)$ , $Y(r)$ y $Z(r)$ sea el transporte paralelo desde $-1$ a $1$ sean las ecuaciones diferenciales $\phi'(t) = r A(t) \phi(t)$ , $\phi'(t) = r B(t) \phi(t)$ y $\phi'(t) = r C(t) \phi(t)$ . Como yo lo entiendo, su método da expansiones asintóticas $$X(r) \approx U \begin{pmatrix} e^{x_1 r} & 0 \\ 0 & e^{x_2 r} \end{pmatrix} V \quad Y(r) \approx U \begin{pmatrix} e^{y_1 r} & 0 \\ 0 & e^{y_2 r} \end{pmatrix} V \quad Z(r) \approx U \begin{pmatrix} e^{z_1 r} & 0 \\ 0 & e^{z_2 r} \end{pmatrix} V \quad (1)$$ donde tengo las MISMAS matrices $U$ y $V$ en cada caso, porque sólo dependen de los vectores propios de $A(1)=B(1)=C(1)$ y de $A(-1)=B(-1)=C(-1)$ .

¿Estoy en lo cierto sobre $(1)$ ?

Si es así, ésta es la cuestión. Mira la forma cuadrática $$\det(x X(r) + y Y(r) + z Z(r)) \approx \det(U) \left( e^{r x_1} x + e^{r y_1} y + e^{r z_1} z \right) \left( e^{r x_2} x + e^{r y_2} y + e^{r z_2} z \right) \det(V).$$

La matriz de esta forma tiene términos principales $$\begin{pmatrix} \exp(r(x_1+x_2)) & & \\ \exp(r\max(x_1+y_2, x_2+y_1)) & \exp(r(y_1+y_2)) & \\ \exp(r\max(x_1+z_2, x_2+z_1)) & \exp(r\max(y_1+z_2, y_2+z_1)) & \exp(r(z_1+z_2)) \\ \end{pmatrix}$$ siempre que las aproximaciones en $(1)$ son lo suficientemente buenos como para que no se nos apliquen condiciones cruzadas adicionales.

A menos que esté muy confundido, puedo construir $A(t)$ , $B(t)$ , $C(t)$ tal que esta forma cuadrática se parece a $x^2+y^2+z^2 + (e^r+e^{-r}) (xy+xz+yz)$ . Y no hay números reales $(x_1, x_2, y_1, y_2, z_1, z_2)$ con $x_1+x_2=y_1+y_2=z_1+z_2=0$ y $\max(x_1+y_2, x_2+y_1)=\max(x_1+z_2, x_2+z_1)=\max(y_1+z_2, y_2+z_1)=1$ . Así que algo va mal...

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X