Que saber sobre la relación $$\frac{d}{dt}e^{At}=Ae^{At}$ $
¿Es la única manera de usarlo encontrar la inversa de $e^{At}$ y luego post-multiplicar a ambos lados?
¿Hay un mejor enfoque?
Que saber sobre la relación $$\frac{d}{dt}e^{At}=Ae^{At}$ $
¿Es la única manera de usarlo encontrar la inversa de $e^{At}$ y luego post-multiplicar a ambos lados?
¿Hay un mejor enfoque?
Bien, vamos a utilizar el hecho de que si $A = P^{-1}DP$ también contamos $e^A = P^{-1}e^DP$
Y $e^D$ es simplemente la matriz diagonal $e^{d_{ i,i}}$.
Así que si usted encuentra el $P$ de la matriz mediante la búsqueda de los vectores propios de a$e^{Dt}$, se pueden utilizar los asociados $D$ matriz de autovalores (necesidad de tomar registro de cada uno de los valores y dividir por $t$, si el resultado es todavía una función de $t$ que algo está mal) y conectarlo de nuevo en $A = P^{-1}DP$
No estoy seguro de si eso es "mejor", pero es una buena extensión de la teoría, de hecho, me gusta la idea de tomar la derivada mucho.
¿Que llegar a donde quieres estar?
Dado cualquier exponencial de la matriz $e^{A}$, en primer lugar, encontrar una matriz $P$ tal que $P e^A P^{-1}$ está en forma normal de Jordan.
$P$P^{-1} = J \stackrel{def}{=} \begin{bmatrix} J_{m_1}(\lambda_1) & 0 & \ldots & 0 \\ 0 & J_{m_2}(\lambda_2) & \ldots & 0 \\ \vdots & \vdots & \ddots & \vdots\\ 0 & 0 & \ldots & J_{m_n}(\lambda_n) \end{bmatrix}$$ donde $J_{m_k}(\lambda)$ es el bloque de Jordan asociada con la $k^{th}$ autovalor $\lambda_k$ $e^{A}$ cuya multiplicidad es $m_k$. Cada bloque de Jordan $J_m(\lambda)$ $m \times m$ matriz de la forma
$$J_m(\lambda) = \lambda I_m + \eta_m = \begin{bmatrix} \lambda & 0 & 0 & \ldots & 0 & 0 & 0\\ 1 & \lambda & 0 & \ldots & 0 & 0 & 0\\ 0 & 1 & \lambda & \ldots & 0 & 0 & 0\\ \vdots & \vdots & \vdots & \ddots & \vdots & \vdots & \vdots\\ 0 & 0 & 0 & \ldots & 1 & \lambda & 0\\ 0 & 0 & 0 & \ldots & 0 & 1 & \lambda \end{bmatrix} $$
donde $\eta_m$ $m \times m$ matriz con $1$ en su sub-diagonal y $0$ en todas las demás.
Desde $e^{A}$ es un aumento exponencial de la matriz de $A$, todos sus autovalores $\lambda_k$ son no-cero. Ahora $\eta_m$ es nilpotent matriz y $\eta_m^{m} = 0$, ningún poder de la serie de se trunca después de la $m\!-\!1$plazo. Como resultado, podemos definir una matriz logaritmo en $J_m(\lambda)$ como una serie finita:
$$\log(J_m(\lambda)) = \log\left[\lambda \left(I_m + \frac{1}{\lambda} \eta_m \right)\right] = ( \log\lambda ) I_m + \sum_{k=1}^{m-1} \frac{(-1)^{k-1}}{k\lambda^k} \eta_m^k $$
y se va a satisfacer
$$e^{\log(J_m(\lambda))} = J_m(\lambda)$$
Si reunimos todas las $\log(J_{m_k}(\lambda_k))$ bloques en una sola matriz y llamar a $\log J$, vamos a tener $$e^{PA P^{-1}} = P e^{A} P^{-1} = J = e^{\log J} \quad\implica\quad A = P^{-1}(\log J) $ $$
Si usted tiene $e^{At}$ y quieres encontrar a $A$, tenga en cuenta que tener $e^{At}$, en cualquier forma que tenemos y hay muchas fórmulas diferentes, a veces dependiendo de $A$, como
$e^{Jt} = (\cos t) I + (\sin t) J \tag{1}$
para matrices de satisfacciones
$J^2 = -I; \tag{2}$
el punto es, usted podría tener $e^{At}$ en una forma que es más fácil evaluar/diferenciar que el nivel de potencia de la serie
$e^{At} = \sum_0^\infty \dfrac{(At)^n}{n!}; \tag{3}$
de todos modos, como decía, tenga en cuenta que tener $e^{At}$ da $(e^{At})^{-1} = e^{-At}$; usted acaba de establecer $t = -1$ en su expresión para $e^{At}$. Así que, sí, usted sólo tiene que encontrar $d(e^{At})/dt$ a partir de su fórmula y, a continuación, usted tiene, para cualquier $t$,
$A = \dfrac{d(e^{At})}{dt} (e^{-At}). \tag{4}$
Haciendo esto con mi ejemplo (1) los rendimientos
$\dfrac{d(e^{Jt})}{dt} = -(\sin t)I + (\cos t)J \tag{5}$
y
$e^{-Jt} = (\cos t)I - (\sin t)J; \tag{6}$
la multiplicación de ellos valida:
$\dfrac{d(e^{Jt})}{dt}e^{-Jt} = -(\sin t)(\cos t) I^2 - (\sin t)(\cos t)J^2 + (\cos^2 t + \sin^2 t)J = J, \tag{7}$
donde se utilizó $J^2 = -I$. Por supuesto, llegar a $J$ (o $A$) de entrada por entrada, tendríamos que utilizar las formas explícitas de las matrices; por ejemplo, si
$J = \begin{bmatrix} 0 & 1 \\ -1 & 0 \end{bmatrix}, \tag{8}$
(esta es sólo una de las posibles $J$; hay muchos), a continuación,
$e^{-Jt} = \begin{bmatrix} \cos t & -\sin t \\ \sin t & \cos t \end{bmatrix}, \tag{9}$
y
$\dfrac{d(e^{Jt})}{dt} = \begin{bmatrix} -\sin t & \cos t \\ -\cos t & -\sin t \end{bmatrix}; \tag{10}$
Os dejo la multiplicación de la matriz a mis lectores, pero (7) es otra vez verificada en esta manera.
Por lo que el de arriba muestra cómo las cosas pueden funcionar, en la teoría y la práctica. Por supuesto, como los comentaristas han observado, teniendo en $t = 0$ después de la diferenciación ahorra algo de trabajo, ya que, a continuación,$e^{At} = I$. Y, en general, las cosas no serán tan bonito como mi ejemplo, pero a veces hay fórmulas para $e^{At}$ que permiten la falda de la alimentación de la serie, que tiende a generar una gran cantidad de aritmética si se calcula directamente.
Espero que esto ayude. ¡Hasta la vista,
y como siempre,
Fiat Lux!!!
I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.