Dejemos que $A(t)$ sea una matriz cuadrada invertible que depende (diferencialmente) de un parámetro real $t$ . Es bien sabido que, por ejemplo $$ \frac{d}{dt} A(t)^{-1}=-A(t)^{-1}\ \dot{A}(t)\ A(t)^{-1} $$ y $$ \frac{d}{dt} \text{det}\ A(t)=\text{det}( A(t))\ \text{tr}(A(t)^{-1}\dot{A}(t)). $$ ¿Existe una identidad igualmente sencilla para $$ \frac{d}{dt}\log A(t)=? $$
Respuestas
¿Demasiados anuncios?En primer lugar, hay que tener en cuenta que la regla de la cadena para las funciones matriciales (es decir, las funciones que asignan matrices a matrices) da como resultado un tensor de rango 4: $$ \frac{d}{dt}F(A(t))_{ab} = \sum_{cd} F'(A(t))_{ab;cd} \frac{dA(t)_{cd}}{dt} $$ donde $F'(A(t))$ es un tensor de rango 4 que codifica la derivada de $F$ et $a$ , $b$ , $c$ y $d$ son los índices de las matrices y tensores anteriores. Por ejemplo, si $F(A) = A^{-1}$ entonces $$ F'(A(t))_{ab;cd} = - (A(t)^{-1})_{ac} (A(t)^{-1})_{db} $$ que reproduce la expresión de $\frac{d}{dt}A(t)^{-1}$ que se da en la pregunta.
Para el caso $F = \log$ y si $A(t)$ es diagonalizable sin valores propios que sean cero o estén en el eje real negativo (es decir, el corte de la rama principal de $\log$ ), entonces la respuesta se da en la página 146 (véase la penúltima ecuación) de Jog, C.S. J Elasticity (2008) 93: 141. doi:10.1007/s10659-008-9169-x y puede expresarse como $$ \log'(A(t))_{ab;cd} = \sum_{ij} P^{(i)}_{ac} P^{(j)}_{db} \begin{cases} \lambda_i^{-1} & \lambda_i = \lambda_j \\ \frac{\log\lambda_i - \log\lambda_j}{\lambda_i - \lambda_j} & \lambda_i \neq \lambda_j \end{cases} $$ donde $i$ et $j$ indexar los valores propios $\lambda$ de $A(t)$ y $P^{(i)}_{ab} \equiv Q_{ai} (Q^{-1})_{ib}$ se proyecta sobre el $i$ -ésimo eigenvector donde $Q$ es la matriz de valores propios de $A(t)$ dada por la eigendecomposición $A(t) = Q \Lambda Q^{-1}$ . Por lo tanto, $$ \frac{d}{dt}\log A(t) = \sum_{ij} P^{(i)} \cdot \frac{dA(t)}{dt} \cdot P^{(j)} \begin{cases} \lambda_i^{-1} & \lambda_i = \lambda_j \\ \frac{\log\lambda_i - \log\lambda_j}{\lambda_i - \lambda_j} & \lambda_i \neq \lambda_j \end{cases} $$ (He comprobado esta ecuación en un Cuaderno de Mathematica .)
Una definición común del logaritmo para matrices (de dimensión finita) es a través de la Dunford-Taylor integral:
$$ \ln(T) := \frac{1}{2\pi i} \oint_\Gamma \ln(z) (z-T)^{-1} dz \, , $$
Donde $\Gamma$ es una curva simple y cerrada que contiene todos los valores propios de $T$ en sentido contrario a las agujas del reloj. Nótese que lo anterior es una generalización aparentemente natural de la fórmula integral de Cauchy.
Que la matriz $T$ dependen de algún parámetro $x$ . Como usted mismo ha señalado uno tiene
$$ \frac{\partial }{\partial x} (z - T)^{-1}= (z - T(x))^{-1} T' (z- T(x))^{-1} \, , $$
donde primo denota la diferenciación con respecto a $x$ .
Combinando las dos ecuaciones obtenemos
$$ \frac{\partial \ln(T)}{\partial x} = \frac{1}{2\pi i} \oint_\Gamma \ln(z) (z - T(x))^{-1} T' (z- T(x))^{-1} dz \, . $$
una buena referencia es el libro de Kato Teoría de la perturbación para operadores lineales .
En primer lugar, no nos preocupemos por los problemas de convergencia, entonces sabemos \begin{equation} \exp(\log(A(t)))=A(t) \end{equation} Tomando la derivada con respecto a ambos lados tenemos \begin{equation} \exp(\log(A(t))) (\log(A(t)))'=A'(t) \end{equation} Así que tenemos \begin{equation} (\log(A(t)))'=A^{-1}(t)~A'(t) \end{equation} modulo problemas de convergencia.