Estoy navegando alrededor buscando a viejas preguntas, pero pensé que me gustaría añadir a este. La pregunta ya tiene grandes respuestas, pero al igual que muchas de las preguntas en álgebra lineal hay muchos diferentes (y a menudo equivalente) maneras de demostrar algún hecho en particular. Por el bien de los futuros lectores, estos podría ser interesante o útil.
1. La cancelación de las
Voy a empezar por resumir el enfoque mencionado en la pregunta a esta:
Si $AB=0$, entonces:
$A^{-1}$ existe $\Rightarrow$ $B=0$ (sólo "cancelar" la $A$ izquierdo multiplicando $A^{-1}$)
$B^{-1}$ existe $\Rightarrow$ $A=0$ (sólo "cancelar" la $B$ igualmente)
Así que el hecho de que $A\ne 0$ $B\ne 0$ nos dice que ni los de la matriz es invertible (estamos usando la lógica contrapositives de las dos instrucciones anteriores). Todo esto se basa en la idea de "cancelar" no-singular de la matriz.
2. Matriz De Rango
Cada matriz tiene una cantidad llamada rango asociado a ella. La forma en que rango se introdujo en mi experiencia es a menudo como consecuencia de la fila-reducción -- el rango es el número de columnas dinámicas (el mismo que el número de distinto de cero filas) después de una matriz es poner en fila-forma escalonada.
En particular, el cero de la matriz tiene rango de cero, así que lo que tenemos nos dice $\mathrm{rank}(AB)=0$. Si $A$ es invertible $n\times n$ de la matriz, a continuación,$\mathrm{rank}(A)=n$.
Pero hay dos hechos sobre el rango que podemos emplear aquí:
No sólo es $\mathrm{rank}(0)=0$, pero la matriz cero es la única matriz con cero rango.
Si $A$ es invertible, entonces a $\mathrm{rank}(AB)=\mathrm{rank}(B)$.
Podemos hacer el mismo tipo de deducción como antes:
$A$ invertible $\Rightarrow$ $\mathrm{rank}(B)=\mathrm{rank}(AB)=0$ $\Rightarrow$ $B=0$
$B$ invertible $\Rightarrow$ $\mathrm{rank}(A)=\mathrm{rank}(AB)=0$ $\Rightarrow$ $A=0$
y así, como en el anterior, no conocemos ni la matriz podría ser invertible.
3. Conclusiones
Como he mencionado, estas respuestas (y las de otros usuarios) son todas equivalentes: Una transformación lineal tiene algo llamado rango equivalente; La independencia lineal de las filas o las columnas de una matriz pueden decirle a usted acerca de su rango... y así sucesivamente.
Para tratar de tomar una puñalada en el corazón de su pregunta, la pregunta de cuál es el esencial o inherente a la razón por la que ambas deben ser singular que yo en realidad iba a decir:
¿Qué es lo esencial o inherente a la razón por la que un ser no-singular obliga a los otros a ser cero?
Si una matriz cuadrada es no-singular, puede ser (de alguna manera u otra) se elimina de la ecuación, es decir, la otra permanece y es cero. Esto puede ser por cancelación, mediante el uso de rango, por la re-encuadrar la cuestión de transformaciones lineales, o por la ruptura de una matriz de producto en un conjunto de ecuaciones lineales -- métodos que son realmente el mismo.
Si usted piensa de matrices como la vida en tres categorías posibles, ya sea no singular, singular (pero no cero), o cero, es interesante que sabemos:
$AB$ no-singular implica $A$ $B$ son no-singular.
$AB$ ser singular implica uno de $A$ o $B$ es singular.
$AB$ cero implica tanto de $A$ $B$ están en singular, salvo que uno de ellos es cero.
El último argumento es el que acabamos de mencionar, los otros dos sigue inmediatamente del hecho de que $\det(AB)=\det(A)\det(B)$.
Estas tres reglas se aplican con frecuencia en otros contextos, con cero divisores, como la aritmética modular.