7 votos

Suponiendo que$AB=I$ prove$BA=I$

Posibles Duplicados:
Si $AB = I$ $BA = I$

La mayoría de los introductorio de álgebra lineal textos definir la inversa de una matriz cuadrada $A$ como tal:

Inversa de a $A$, si es que existe, es una matriz de $B$ tal que $AB=BA=I$.

Esa definición, en mi opinión, es problemático. Un par de libros (en mi ejemplo de que menos del 20%) dan una definición diferente:

Inversa de a $A$, si es que existe, es una matriz de $B$ tal que $AB=I$. Entonces ellos van y demostrar que $BA=I$.

¿Sabe usted de una prueba distinta de la definición de inversa a través de los determinantes o a través del uso rref?

Hay un planteamiento general en el álgebra en virtud de la cual $ab=e$ conduce a $ba=e$ donde $e$ es la identidad?

19voto

Anthony Shaw Puntos 858

Multiplicar ambos lados de $AB-I=0$ a la izquierda por $B$ para obtener $$ (BA-I)B=0\etiqueta{1} $$ Deje $\{e_j\}$ ser el estándar de base para $\mathbb{R}^n$. Tenga en cuenta que $\{Be_j\}$ son linealmente independientes: supongamos que $$ \sum_{j=1}^n a_jBe_j=0\etiqueta{2} $$ luego, multiplicando $(2)$ a la izquierda por $A$ da $$ \sum_{j=1}^n a_je_j=0\etiqueta{3} $$ lo que implica que $a_j=0$ desde $\{e_j\}$ es una base. Por lo tanto, $\{Be_j\}$ es también una base para $\mathbb{R}^n$.

Multiplicando $(1)$ a la derecha por $e_j$ rendimientos $$ (BA-I)Be_j=0\etiqueta{4} $$ para cada base de vectores $Be_j$. Por lo tanto, $BA=I$.

El fracaso en una Dimensión Infinita

Deje $A$ $B$ operadores en secuencias infinitas. $B$ cambios de la secuencia de derecho por uno, llenando el primer elemento con $0$. $A$ cambia la secuencia de izquierda, bajando el primer elemento.

$AB=I$, pero $BA$ establece el primer elemento de a $0$.

Los argumentos que asumen $A^{-1}$ o $B^{-1}$ existen y no hacen referencia a lo finito de la dimensionalidad del espacio vectorial, por lo general no esta contraejemplo.

12voto

bentsai Puntos 1886

Sin la asunción de $A$ $B$ siendo las matrices cuadradas, podemos encontrar contraejemplos. Por ejemplo: $$ \left(\begin{array}{ccc} 1 & 0 & 0 \\ 0 & 1 & 0 \\ \end{array}\right) \left(\begin{array}{cc} 1 & 0 \\ 0 & 1 \\ 0 & 0 \\ \end{array}\right) = \left(\begin{array}{cc} 1 & 0 \\ 0 & 1 \\ \end{array}\right) $$ y $$ \left(\begin{array}{cc} 1 & 0 \\ 0 & 1 \\ 0 & 0 \\ \end{array}\right) \left(\begin{array}{ccc} 1 & 0 & 0 \\ 0 & 1 & 0 \\ \end{array}\right) = \left(\begin{array}{ccc} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 0 \\ \end{array}\right). $$

Para matrices cuadradas, se probó en varias formas para matrices cuadradas en la pregunta:

Si $AB = I$ $BA = I$

2voto

zyx Puntos 20965

Hay un planteamiento general en el álgebra en virtud de que ab=e conduce a ba=e, donde e es la identidad?

La finitud o finito-dimensionalidad o rigideces que se siguen de ellas, tales como:

  • un Dedekind-conjunto finito no es infinito
  • el doble-doble $V^{**}$ siendo naturalmente isomorfo a $V$,
  • antípoda^2=identidad, y otros más elaborados análogos (creo que aquí en frases como rígido tensor de categorías con duales).

Existe una dualidad entre inyectiva y surjective, o izquierda y derecha, y necesitas un poco de ajuste en el que la transposición de uno a otro es su propia inversa. El álgebra lineal resultado para finitos matrices descansa en última instancia en el mismo principio para las funciones sobre conjuntos finitos, y en la dimensión de un finito-dimensional espacio vectorial de estar bien definido (que está estrechamente relacionado con la cardinalidad de un conjunto finito de estar bien definido).

0voto

Daniel Puntos 231

Para$A$ y$B$ square,$AB=I$ implica$(AB)^{-1} = B^{-1}A^{-1}=I$. Luego multiplique$B$ desde el lado izquierdo,$A$ desde el lado derecho. $BB^{-1}A^{-1}A=BIA$ Implica$BA=I$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X