¿Sabemos que $AA^{-1} = I$ y $A^{-1}A = I$, pero existe una prueba para aquí la propiedad conmutativa? ¿O esto es sólo la definición de invertibility?
Respuestas
¿Demasiados anuncios?Commutativity es parte de la definición de la inversa, pero se justifica por el hecho siguiente de monoids: Si un elemento $a$ en un monoid $M$ tiene una inversa derecha $b$ y un % inverso izquierdo $c$: $ab=e$, $ca=e$ (el elemento neutro en $M$), a continuación, $b=c$ - en otras palabras, $a$ tiene una inversa.
Esto resulta muy simplemente de la asociatividad de la ley del monoid: $$b= eb=(ca)b=c(ab)=ce=c.$ $
Olvídate de la linealidad por el momento. Si $X$ $Y$ son conjuntos y $f : X \rightarrow Y$ es alguna función es inyectiva, entonces existe una función de $g : f(X)\rightarrow X$ tal que $$ g(f(x))=x,\;\;\; x\in X. $$ Aunque $f$ no puede ser surjective, puede aplicar $f$ a ambos lados de la anterior para obtener: $$ f(g(f(x)))=f(x) \\ (f\circ g)(f(x))=f(x) \\ (f\circ g)(y) = y,\;\;\; y \f(X). $$ Así que es un simple truco para ver que $g : f(X)\rightarrow X$ $f : X\rightarrow f(X)$ son inversos. En consecuencia, si $f$ es inyectiva y surjective, a continuación, $g\circ f = id_{X}$ fuerzas de $f\circ g = id_{Y}$ donde $id_{X}$ $id_{Y}$ son los mapas de identidad en $X$, $Y$, respectivamente.
Para una función lineal $L : X\rightarrow X$ en un finito-dimensional espacio lineal $X$, usted tiene la inusual propiedad que $L$ es surjective iff es inyectiva. Ese es el rango de-nulidad teorema, y es curioso lineal mapas finito-dimensional espacios (es decir, no es cierto en el infinito-dimensional lineal espacios.) Por lo tanto, si $L : X\rightarrow X$ es inyectiva, entonces $f(x) = Lx$ tiene un inverso $g$ que es definido en todas partes en $X$, lo que obliga $(f\circ g)(y)=y$ todos los $y \in Y$. En otras palabras, si $M$ es una matriz tal que $ML=I$ sobre el finito dimensionales del espacio lineal $X$, entonces automáticamente se sostiene que $LM=I$.
Si $A$ $B$ plaza de matrices en $\mathbb R^{n\times n}$ tal que $AB=I$, entonces podemos demostrar que $BA=I$.
Una forma de ver esto es considerar el $n$ vectores columna $B\mathbf e_1, B\mathbf e_2, \ldots, B\mathbf e_n$ donde $e_i$s son el estándar de base para $\mathbb R^n$. El $B\mathbf e_i$s debe ser linealmente independiente (porque si tenemos una combinación lineal de ellos, podemos multiplicar que desde la izquierda por $A$ y obtener una combinación lineal de $\mathbf e_i$s), y cualquier conjunto linealmente independiente de $n$ vectores es una base para $\mathbb R^n$.
Ahora considere la posibilidad de un arbitrario vector columna $Y\in\mathbb R^n$. Podemos escribir $Y$ como una combinación lineal de las $B\mathbf e_i$s (debido a que forman una base). Deje $X$ ser la misma combinación lineal de $\mathbf e_i$s; por la linealidad tenemos $BX=Y$. Vamos a calcular ahora $$ (BA)Y=(BA)(BX)=B(AB)X=BIX=BX=Y $$ En otras palabras, a la izquierda de la multiplicación por una $BA$ es la identidad, y la única matriz con esta propiedad es $I$, lo $BA=I$.