Posibles Duplicados:
Si $AB = I$ $BA = I$La mayoría de los introductorio de álgebra lineal textos definir la inversa de una matriz cuadrada $A$ como tal:
Inversa de a $A$, si es que existe, es una matriz de $B$ tal que $AB=BA=I$.
Esa definición, en mi opinión, es problemático. Un par de libros (en mi ejemplo de que menos del 20%) dan una definición diferente:
Inversa de a $A$, si es que existe, es una matriz de $B$ tal que $AB=I$. Entonces ellos van y demostrar que $BA=I$.
¿Sabe usted de una prueba distinta de la definición de inversa a través de los determinantes o a través del uso
rref
?Hay un planteamiento general en el álgebra en virtud de la cual $ab=e$ conduce a $ba=e$ donde $e$ es la identidad?
Respuestas
¿Demasiados anuncios?Multiplicar ambos lados de $AB-I=0$ a la izquierda por $B$ para obtener $$ (BA-I)B=0\etiqueta{1} $$ Deje $\{e_j\}$ ser el estándar de base para $\mathbb{R}^n$. Tenga en cuenta que $\{Be_j\}$ son linealmente independientes: supongamos que $$ \sum_{j=1}^n a_jBe_j=0\etiqueta{2} $$ luego, multiplicando $(2)$ a la izquierda por $A$ da $$ \sum_{j=1}^n a_je_j=0\etiqueta{3} $$ lo que implica que $a_j=0$ desde $\{e_j\}$ es una base. Por lo tanto, $\{Be_j\}$ es también una base para $\mathbb{R}^n$.
Multiplicando $(1)$ a la derecha por $e_j$ rendimientos $$ (BA-I)Be_j=0\etiqueta{4} $$ para cada base de vectores $Be_j$. Por lo tanto, $BA=I$.
El fracaso en una Dimensión Infinita
Deje $A$ $B$ operadores en secuencias infinitas. $B$ cambios de la secuencia de derecho por uno, llenando el primer elemento con $0$. $A$ cambia la secuencia de izquierda, bajando el primer elemento.
$AB=I$, pero $BA$ establece el primer elemento de a $0$.
Los argumentos que asumen $A^{-1}$ o $B^{-1}$ existen y no hacen referencia a lo finito de la dimensionalidad del espacio vectorial, por lo general no esta contraejemplo.
Sin la asunción de $A$ $B$ siendo las matrices cuadradas, podemos encontrar contraejemplos. Por ejemplo: $$ \left(\begin{array}{ccc} 1 & 0 & 0 \\ 0 & 1 & 0 \\ \end{array}\right) \left(\begin{array}{cc} 1 & 0 \\ 0 & 1 \\ 0 & 0 \\ \end{array}\right) = \left(\begin{array}{cc} 1 & 0 \\ 0 & 1 \\ \end{array}\right) $$ y $$ \left(\begin{array}{cc} 1 & 0 \\ 0 & 1 \\ 0 & 0 \\ \end{array}\right) \left(\begin{array}{ccc} 1 & 0 & 0 \\ 0 & 1 & 0 \\ \end{array}\right) = \left(\begin{array}{ccc} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 0 \\ \end{array}\right). $$
Para matrices cuadradas, se probó en varias formas para matrices cuadradas en la pregunta:
Hay un planteamiento general en el álgebra en virtud de que ab=e conduce a ba=e, donde e es la identidad?
La finitud o finito-dimensionalidad o rigideces que se siguen de ellas, tales como:
- un Dedekind-conjunto finito no es infinito
- el doble-doble $V^{**}$ siendo naturalmente isomorfo a $V$,
- antípoda^2=identidad, y otros más elaborados análogos (creo que aquí en frases como rígido tensor de categorías con duales).
Existe una dualidad entre inyectiva y surjective, o izquierda y derecha, y necesitas un poco de ajuste en el que la transposición de uno a otro es su propia inversa. El álgebra lineal resultado para finitos matrices descansa en última instancia en el mismo principio para las funciones sobre conjuntos finitos, y en la dimensión de un finito-dimensional espacio vectorial de estar bien definido (que está estrechamente relacionado con la cardinalidad de un conjunto finito de estar bien definido).