5 votos

Demuestra que una matriz cuadrada conmuta con su inversa

La pregunta:

Este es un resultado muy fundamental y comúnmente utilizado en el álgebra lineal, pero no he sido capaz de encontrar una prueba o demostrarlo yo mismo. El enunciado es el siguiente:

dejar $A$ ser un $n\times n$ matriz cuadrada, y supongamos que $B=\operatorname{LeftInv}(A)$ es una matriz tal que $BA=I$ . Demostrar que $AB=I$ . Es decir, demostrar que una matriz conmuta con su inversa, que el inverso de la izquierda es también el inverso de la derecha

Mis pensamientos hasta ahora:

Esto me resulta especialmente molesto porque parece que debería ser fácil.

Tenemos una afirmación similar para la multiplicación de grupos, pero la conmutatividad de los inversos se presenta a menudo como parte de la definición. ¿Se deduce necesariamente esta propiedad de la asociatividad de la multiplicación? Me he dado cuenta de que a partir de la asociatividad, tenemos $$ \left(A\operatorname{LeftInv}(A)\right)A=A\left(\operatorname{LeftInv}(A)A\right) $$ ¿Pero es suficiente?

Puede ser útil hablar de inversiones generalizadas .

5voto

MarlonRibunal Puntos 1732

Notación $A^{-1}$ es confuso porque te hace pensar que es un inverso de dos lados pero sólo sabemos que es un inverso de la izquierda.

Llamemos a $B$ la matriz para que $BA=I$ . Usted quiere probar $AB=I$ .

En primer lugar, hay que demostrar que existe una $C$ para que $AC=I$ . Para ello se puede utilizar el determinante pero debe haber otra forma. [EDIT] Hay varios métodos aquí . La más sencilla (imo) es la que utiliza el hecho de que la matriz tiene rango completo[/EDIT].

Entonces tienes que $B=BI=B(AC)=(BA)C=IC=C$ por lo que se obtiene $B=C$ y por lo tanto $AB=I$ .

2voto

Hagen von Eitzen Puntos 171160

Supongamos que $A,B$ son $n\times n$ matrices con $BA=I$ . Sea $\alpha\colon V\to V$ con $V=K^n$ sea el endomorfismo descrito por $A$ y de forma similar con $\beta$ para $B$ . Entonces se nos da que $\beta\circ\alpha=\operatorname{id}_V$ Por lo tanto $\alpha$ es inyectiva. La imagen de la base estándar de $V$ es por tanto una familia linealmente independiente de $n$ vectores en $V$ por lo que es de hecho una base, por lo que $\alpha$ es en también suryectiva. Así, para cualquier $v\in V$ podemos encontrar $w\in V$ con $v=\alpha w$ y entonces tenemos $\alpha\beta v=\alpha\beta\alpha w=\alpha w=v$ es decir $\alpha\beta=\operatorname{id}_V$ . Traducido a las matrices esto significa $AB=I$ . Tenga en cuenta que era esencial que $\dim V<\infty$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X