12 votos

La prueba de '$AB = I$ $BA = I$ ' sin Motivación?

He leído esta pregunta de la página (Si $AB = I$ $BA = I$ ) por Dilawar y vi que la mayoría de las pruebas son con el hecho de que el álgebra de matrices y operadores lineales son isomorfos.

Pero desde un simple punto de vista, la matriz es sólo un conjunto estructurado de escalares, y el hecho de que el producto escalar de la i-ésima fila de a $A$ y la j-ésima columna de a $B$ es igual a la delta de Kronecker es sólo una de las componentes algebraicas informarion.

Entonces me empecé a preguntar si hay alguna "brutal" la prueba de que no se visita el "más alto" de dominio de estructuras algebraicas y sólo utiliza el simple de las componentes operaciones algebraicas para demostrar que el producto escalar de la i-ésima fila de a $B$ y la j-ésima columna de a $A$ es igual a la delta de Kronecker de la condición dada. (La prueba de que incluso una "máquina" se puede hacer)

Debemos pensar de una matriz como más que un mero 'número de la casilla' mostrar $BA=I$?

5voto

Chris Benard Puntos 1430

Aquí es un boceto de un "brutal prueba", de las que te imaginas. (Al volver a leer las otras respuestas, ya has visto esto. Pero las notas al final puede ser muy interesante.) Una versión más detallada de la siguiente se puede encontrar en "Bijective Álgebra de matrices", por Loehr y Mendes.

Recuerde que la matriz adjunta, $\mathrm{Ad}(A)$, se define que el $(i,j)$ entrada igual a $(-1)^{i+j}$ multiplicado por el determinante de la $(n-1) \times (n-1)$ de la matriz obtenida al eliminar el $i$-ésima fila y $j$-ésima columna de a $A$.

Escribir una fuerza bruta de la prueba de la identidad: $$\mathrm{Ad}(A) \cdot A = A \cdot \mathrm{Ad}(A) = \det A \cdot \mathrm{Id}_n$$ por agrupación de términos semejantes en ambos lados y reorganización.

Asimismo, anote la fuerza bruta de la prueba de la identidad $$\det(AB) = \det(A) \det(B).$$ Por lo tanto, si $AB=\mathrm{Id}$, usted sabe que $\det(A) \det(B)=1$.

Ahora calcular $\mathrm{Ad}(A) ABA$ en dos formas: $$(\mathrm{Ad}(A) A)BA = \det(A) BA$$ y $$\mathrm{Ad}(A) (AB) A = \mathrm{Ad}(A) A = \det(A) \mathrm{Id}.$$ Desde $\det(A) \det(B) =1$, también ha $\det(B) \det(A)=1$, y llegar a deducir que $BA = \mathrm{Id}$.

Hay algunos cálculos interesantes aquí. Deje $R$ ser el polinomio anillo en $2n^2$ variables $x_{ij}$ $y_{ij}$ y deje $X$ $Y$ $n \times n$ matrices con estas entradas. Deje $C_{ij}$ las entradas de la matriz $XY-\mathrm{Id}$ y deje $D_{ij}$ ser el entires de la matriz $YX-\mathrm{Id}$. Seguimiento a través de la anterior prueba (si su subproofs son bastante brutal) debe darle las identidades de la forma $D_{ij} = \sum_{k,\ell} P_{k \ell}^{ij} C_{ij}$. Es una pregunta interesante cómo sencilla, ya que en términos del grado o de la longitud del circuito, los polinomios $P_{k \ell}^{ij}$, se puede hacer.

Yo blogueado acerca de esta cuestión y aprendido acerca de algunos de los documentos pertinentes (1 2), el cual debo admitir que no entiendo.

4voto

rschwieb Puntos 60669

Me empecé a preguntar si hay alguna "brutal" la prueba de que no se visita el "más alto" de dominio de estructuras algebraicas y sólo usa el simple de las componentes operaciones algebraicas para demostrar que el producto escalar de la i-ésima fila de B y la j-ésima columna de a es igual a la delta de Kronecker de la condición dada.

Podemos pensar que un matix como algo más que una mera 'número de la casilla' mostrar BA=I?

Suena un poco como usted está sugiriendo que el simple hecho de $A$ $B$ y el formal multiplicaciones de los elementos en la matriz de la ecuación de $AB=I$ es suficiente para demostrar que $BA=I$.

Pero la verdad de esta afirmación depende de las propiedades del anillo que la matriz de entradas viene!

Así que no, las matrices y la multiplicación de los solos no son suficientes para demostrar la declaración de $AB=I\implies BA=I$.


En varios lugares en matemáticas.SÍ, hay un ejemplo de un anillo de $R$ con dos elementos $a,b$ tal que $ab=1$$ba\neq 1$, y que da un ejemplo de una matriz de con $n=1$ cuando la declaración no es cierto.

Se toma el tiempo para dar el ejemplo de como encontrar un enlace, así que por la integridad, voy a incluir. Tome $R$ a ser el anillo de transformaciones lineales del espacio vectorial de los polinomios de $\Bbb R[x]$, y tome $b$ a ser el operador de la derivada en $\Bbb R[x]$, e $a$ a ser la antiderivada con constantes conjunto de a $0$. Es fácil ver que $ab=I$, pero $ba\neq I$ porque $ba(2)=b(0)=0$.

Y si usted está realmente anhelo de un ejemplo con $n>1$, sólo el uso de $M_2(R)$ más de este anillo. Obviamente $\begin{bmatrix}a&0\\0&a\end{bmatrix}$ $\begin{bmatrix}b&0\\0&b\end{bmatrix}$ hacer el truco.


La proposición es verdadera para grandes clases de anillos, sin embargo. Un anillo de $R$ es llamado de forma estable finito si, para cada $n\in \Bbb Z^+$ y $A,B\in M_n(R)$, $AB=I\implies BA=I$. Tal vez los dos más amplio clases de anillos con esta propiedad son derecho Noetherian anillos y anillos conmutativos.

Si lo único que le interesa es conmutativa anillos, entonces creo que no hay mejor solución que la $A\mathrm{Adj}(A)=\mathrm{Adj}(A)A=\det A\cdot I$ prueba dado ya. Esencialmente, es la fuerza bruta de cálculo con un montón de factores determinantes, todos redactados en términos de las entradas de las matrices. Determinantes no están disponibles (o al menos extremadamente complicado) en no conmutativa de los anillos, así que esta es la razón por la conmutatividad se salva el día.

2voto

Theon Alexander Puntos 829

He aquí una respuesta que le escribí a una pregunta que quizás se hace un poco más cerca de la suya que aquellos en el siguiente enlace (sólo en el sentido de que las apelaciones a una explícita de la fórmula).

Derecho invertible y a la izquierda divisor de cero en la matriz de anillos sobre un anillo conmutativo

El punto es: la regla de Laplace para determinantes de los rendimientos universal polinomio identidades que mantener para cualquier anillo conmutativo:

$$\newcommand\adj{\operatorname{adj}}\adj(A) A=A \adj(A)=\det(A)I.$$

Desde este punto de vista, la prueba es algorítmica, a pesar de que se basa en el hecho de que $\det(AB)=\det(A)\det(B)$, que es una expresión algebraica resultado (de la más elegante manera de expresarlo es a través del uso de la parte superior exterior de poderes, lo que podría ser una exageración).

Dudo que usted podría conseguir a tu pregunta resuelto, por la siguiente razón: tenemos un conjunto de ecuaciones lineales en los coeficientes de $B$ (el superindex indican la fila no. y los subíndices se refieren a la columna no.):

$$A^i B_j= \delta_i^j.$$ Aquí las variables pertenecientes a $B_j$ aparecen exactamente en $n$ ecuaciones, y no aparecen explícitamente en cualquier otro.

El resultado deseado es: $$A_i B^j=\delta_i^j.$$ same thing here, but with $B^j$. Con el fin de realizar las combinaciones lineales necesario, uno necesita usar el álgebra, por ejemplo:

$A^i B_j=\delta_j^i$ ($B_i$) implica que en nuestra tierra el anillo de los coeficientes $B_j$ generar el ideal $(1)$.

La forma más elegante, y tal vez el único posible, es el lugar de los números en la forma de la matriz y por lo tanto para aislar $B$ en términos de los adjuntos de la matriz de $A$, o viceversa.

La solución es cierto cociente de expresiones polinómicas en los coeficientes, que no es una fórmula fácil para venir para arriba con, sin la debida algebraicas marco. Por lo tanto, me imagino que una solución como la que pedimos sería muy difícil de conseguir.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X