10 votos

Cómo evaluar los derivados de la matriz inversa?

Acantilado Taubes escribió en su geometría diferencial libro que:

Ahora podemos calcular las derivadas direccionales de el mapa $$M\rightarrow M^{-1}$$ Let $\alpha\en M(n,\mathbb{R})$ denote any given matrix. Then the directional derivatives of the coordinates of the map $M\rightarrow M^{-1}$ in the drection $\alpha$ are the entries of the matrix $$-M^{-1}\alpha M^{-1}$$ Consider, for example, the coordinate given by the $(i,j)$th entry, $(M^{-1})_{ij}$. The directional derivative in the drection $\alpha$ of this function on $GL(n,\mathbb{R})$ is $$-(M^{-1}\alpha M^{-1})_{ij}$$ In particular, the partial derivative of the function $M\rightarrow (M^{-1})_{ij}$ with respect to the coordinate $M_{rs}$ is $-(M^{-1})_{ir}(M^{-1})_{sj}$.

Me pregunto por qué esto es cierto. Él no se da ninguna deducción de esta fórmula, y todas las fórmulas sé que es la matriz inversa no genera nada similar a su resultado. Así que me atrevo a preguntar.

17voto

Scott Wade Puntos 271

No estoy seguro si este es el tipo de respuesta que usted desea, ya me voy a dar otro argumento en lugar de explicar su argumento. Sin embargo, esta es la forma en que suelo pensar de ella.

Deje $M$ ser una matriz y $\delta M$ el infinitesimal de perturbación (por ejemplo, $\epsilon$ los tiempos de la derivada). Ahora, vamos a $N=M^{-1}$ $\delta N$ el correspondiente perturbación de la inversa de modo que $N+\delta N=(M+\delta M)^{-1}$. Incluyendo sólo el primer fin de perturbaciones (es decir, ignorando los términos con dos $\delta$s), esto le da $$ \begin{split} I=&(M+\delta M)(N+\delta N)=MN+M\,\delta N+\delta M\,N\\ &\implies M\,\delta N=-\delta M\,N=-\delta N\,M^{-1}\\ &\implies \delta N=-M^{-1}\,\delta M\,M^{-1}.\\ \end{split} $$ Escrito en términos de los derivados, es decir, $M'=dM/ds$ $N'=dN/ds$ donde$M=M(s)$$N=N(s)$$M(s)N(s)=I$, la misma que sería escrito $$ 0=I'=(MN)'=M N+MN'\implica N'=-M^{-1}\N'\,M^{-1}. $$

9voto

sticsk Puntos 3

Tengo el siguiente resultado. Estoy asumiendo que usted ya ha demostrado que la inversión mapa (voy a llamarlo $f$) es diferenciable. Vamos a considerar el total derivado $Df(A)$$A\in GL(n,\mathbb{R})$.

Tomar la identidad de mapa de $Id:GL(n,\mathbb{R})\to GL(n,\mathbb{R}):A\mapsto A$ y el mapa de $g:GL(n,\mathbb{R})\to GL(n,\mathbb{R}):A\mapsto A\cdot A^{-1}=I_n$. Tenga en cuenta que la derivada de $Id$ $DId(A)(H)=Id(H)=H$ $A,H\in GL(n,\mathbb{R})$ desde $Id$ es lineal en el mapa. Además, tenga en cuenta que $g=Id\cdot f$ y que desde $g$ es una constante mapa, es derivado es la matriz cero. Aquí uso el siguiente resultado que voy a probar más tarde:

Deje $h,k:GL(n,\mathbb{R})\to GL(n,\mathbb{R})$ ser diferenciable en a $A\in GL(n,\mathbb{R})$. A continuación, $$D(h\cdot k)(A)(H)=Dh(A)(H)k(A)+h(A)Dk(A)(H)\;\text{for}\; H\in GL(n,\mathbb{R})$$ A partir de esta de la siguiente manera: $$Dg(A)(H)=DId(A)(H)f(A)+Id(A)Df(A)(H)$$ $$0=H\cdot f(A)+A\cdot Df(A)(H)$$ $$-H\cdot A^{-1}=A\cdot Df(A)(H)$$ $$-A^{-1}HA^{-1}=Df(A)(H)$$ Cual es el resultado deseado. Ahora tenemos que demostrar que el resultado es cierto. Esto es un poco dudoso ya que voy a probarlo para funciones en $\mathbb{R}^n$, y puesto que existe un isomorfismo de espacios vectoriales entre el $n\times m$-matrices y el espacio métrico $\mathbb{R}^{nm}$ creo que también es válido para matrices. De entrada es positiva, pero aquí va:

Supongamos que tenemos dos funciones de $f:U\to\mathbb{R}^{n_1n_2}$ $g:U\to\mathbb{R}^{n_2n_3}$ que son diferenciables en a $x_0$ $U\subset\mathbb{R}^m$ un subconjunto abierto. Definir $\phi:\mathbb{R}^{n_1n_2}\times\mathbb{R}^{n_2n_3}\to\mathbb{R}^{n_1n_3}:(x,y)\mapsto xy$. Tenga en cuenta que $h$ es bilineal y por lo tanto es derivable con derivada: $Dh(x,y)(v,w)=h(v,y)+h(x,w)=vy+xw$ (buen ejercicio para probar esto).

Definimos $k:U\to\mathbb{R}^{n_1n_2}\times\mathbb{R}^{n_2n_3}:x\mapsto (f(x),g(x))$. Tenga en cuenta que $k$ es diferenciable en a $x_0$ si y sólo si sus componentes. Pero los componentes son $f$$g$, por lo que diferenciable en a$x_0$, por definición, lo $k$ es diferenciable en a $x_0$. Del mismo modo la derivada de $k$ es el vector de los derivados de sus componentes.

Por la Regla de la Cadena $h\circ k$ es diferenciable en a $x_0$ con derivados: $$D(h\circ k)(x_0)=Dh(k(x_0))\circ Dk(x_0)$$ $$D(h\circ k)(x_0)=Dh((f(x_0),g(x_0))\circ (Df(x_0),Dg(x_0))$$ $$D(h\circ k)(x_0)=Df(x_0)g(x_0)+f(x_0)Dg(x_0)$$ La última parte fue obtenida mediante el uso de la identidad por la derivada de bilineal mapas que me dio anteriormente.

Espero que esto está claro y cualquier adición a la solución son bienvenidos!

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X