1 votos

Prueba $|A.B|=|A|.|B|$ utilizando el álgebra matricial

¿Cómo demostrar que el determinante del producto de matrices es igual al producto de sus respectivos determinantes?

$$ |A.B|=|A|.|B| $$ donde $A,B$ son matrices cuadradas del mismo orden.

No tengo ni idea de por dónde empezar, sólo sé lo siguiente $$ |A|I=A(adj A)=(adj A)A $$ Nota: He comprobado un problema similar en Demostración combinatoria de la regla del producto determinante que da una prueba combinatoria del enunciado que es un poco engorroso por el uso de la combinatoria en un problema matricial. Así que espero que valga la pena pedir una prueba alternativa utilizando sólo las propiedades de las matrices.

1voto

Loz100 Puntos 6

Dejemos que $A,B\in \Re^{n\times n}$ ser dos $n\times n$ matrices.

Ahora podemos distinguir entre 2 casos:

Caso 1: $A$ no es invertible. Por lo tanto, el producto $AB$ tampoco será invertible. En este caso, $|AB|=|A|\cdot|B|=0$ se cumple (ambos lados son iguales a $0$ ).

Caso 2: $A$ es invertible. En este caso, tanto $A$ y la matriz de identidad $I_n$ son equivalentes por filas: $$A=E_p\cdot E_{p-1}\ldots E_1\cdot I_n=E_p\cdot E_{p-1}\ldots E_1$$

Y por lo tanto: $$\begin{align*} |AB| &= |E_p\cdot E_{p-1}\ldots E_1\cdot B| \\ &=|E_p|\cdot|E_{p-1}\ldots E_1\cdot B| \\ &= |E_p|\cdot|E_{p-1}|\cdot |\ldots E_1\cdot B| \\ &=\ldots \\ &= |E_p\ldots E_1|\cdot |B| \\ &= |A|\cdot|B|\end{align*}$$

1voto

David C. Ullrich Puntos 13276

Anotaciones como $\sum_j$ o $\prod_k$ siempre significará $\sum_{j=1}^n$ y $\prod_{k=1}^n$ ; va a haber bastante escritura aquí incluso con esa convención.

Si $\sigma\in S_n$ definir $|\sigma|=1$ si $\sigma$ está en paz, $-1$ si $\sigma$ es impar. La definición más sencilla del determinante es $$|A|=\sum_{\sigma\in S_n}|\sigma|\prod_ja_{j,\sigma(j)}.$$

Ok, tal vez eso no mira tan simple como otras definiciones, pero a menudo es la más sencilla de utilizar para demostrar cosas sobre los determinantes; si cualquier fórmula es verdadera es debe seguir simplemente conectando y resolviendo. Vamos a utilizar esto para demostrar que el determinante es multiplicativo - la prueba es "simple" en el sentido de que no utiliza absolutamente ningún resultado anterior, nada más que el hecho de que la multiplicación se distribuye sobre la adición.

En general lo que es el producto de un montón de sumas, $\prod_j\sum_k\alpha_{jk}$ ? Es la suma de productos, siendo cada producto el producto de un término de la primera suma por un término de la segunda suma, etc. Es decir, si dejamos que $X$ sea el conjunto de todas las funciones de $\{1,2,\dots,n\}$ a sí mismo, en general tenemos $$\prod_j\sum_k\alpha_{jk} =\sum_{\psi\in X}\prod_j\alpha_{j,\psi(j)}.$$

Ampliamos la notación $|\sigma|$ a $X$ diciendo $|\sigma|=0$ si $\sigma\in X\setminus S_n$ . Tenga en cuenta que si $\sigma,\psi\in X$ y $\sigma\psi\in S_n$ entonces $\sigma$ debe ser suryente y $\psi$ debe ser inyectiva, por lo que de hecho $\sigma,\psi\in S_n$ . Por lo tanto, $$|\sigma\psi|=|\sigma|\,|\psi|\quad(\sigma,\psi\in X).$$

Ahora diga $AB=C$ . En la notación obvia esto dice $$c_{jk}=\sum_ia_{ji}b_{ik}.$$ Así que si $\sigma\in S_n$ entonces $$ \sum_jc_{j,\sigma(j)}=\sum_{\psi\in X}\prod_ja_{j,\psi(j)}b_{\psi(j),\sigma(j)}.$$

Por lo tanto, $$|AB|=\sum_{\psi\in X}\sum_{\sigma\in S_n}|\sigma|\prod_ja_{j,\psi(j)}b_{\psi(j),\sigma(j)}.$$

Ahora bien, tenga en cuenta que como $|\psi|=0$ para $\psi\in X\setminus S_n$ tenemos $$|A|=\sum_{\psi\in X}|\psi|\prod_ja_{j,\psi(j)}.$$ Multiplicando esto por la definición original de $|B|$ da $$|A|\,|B|=\sum_{\psi\in X}\sum_{\phi\in S_n}|\sigma\psi|\prod_ja_{j,\psi((j)}b_{j,\sigma(j)}.$$

Ya que para cada $\psi\in X$ o bien $|\psi\sigma|=0$ o $\psi$ es una permutación de $\{1,2\dots,n\}$ que el último es igual a $$\sum_{\psi\in X}\sum_{\phi\in S_n}|\sigma\psi|\prod_ja_{j,\psi((j)}b_{\psi(j),\sigma(\psi(j))}.$$

Y de nuevo, ya que si $|\psi|\ne0$ entonces $\sigma\mapsto\sigma\psi$ es una biyección en $S_n$ Esta última expresión es igual a $$\sum_{\psi\in X}\sum_{\phi\in S_n}|\sigma|\prod_ja_{j,\psi((j)}b_{\psi(j),\sigma(j)},$$ que es $|AB|$ .

0voto

Jan Puntos 11

Gracias @ZeroXLR por la pista.

$$ |A.B|=|A|.|B| $$

$\color{blue}{\text{Theorem 1}}:$ Supongamos que $A$ es una matriz cuadrada de tamaño $n$ y $E$ es cualquier matriz elemental de tamaño $n$ entonces $$\boxed{ |E.A|=|E|.|A|} $$

Prueba :

1.) $A=[a_{i,j}]$ y $B=E_l(k).A=[b_{i,j}]$ donde $b_{l,j}=k.a_{l,j}$

$$ |E_l(k).A|=|B|=\sum_{j=1}^{n} (-1)^{l+j}.b_{l,j}.|b(l\ |\ j)|\\ =\sum_{j=1}^{n} (-1)^{l+j}.b_{l,j}.|a(l\ |\ j)|\\ =\sum_{j=1}^{n} (-1)^{l+j}.k.a_{l,j}.|a(l\ |\ j)|\\ =k.\sum_{j=1}^{n} (-1)^{l+j}.a_{l,j}.|a(l\ |\ j)|\\ \color{red}{|E_l(k).A|=k.|A|=|E_l(k)|.|A|} $$ 2.) Intercambio de filas adyacentes, $A=[a_{i,j}]$ y $B=E_{l,l+1}.A=[b_{i,j}]$ donde $a_{l,j}=b_{l+1,j}$ y $a_{l+1,j}=b_{l,j}$ $$ |E_{l,l+1}.A|=|B|=\sum_{j=1}^{n}(-1)^{l+1+j}.b_{l+1,j}.|b(l+1\ |\ j)|\\ =\sum_{j=1}^{n}(-1)^{l+j}.(-1)^1.a_{l,j}.|a(m\ |\ j)|\\ =(-1).\sum_{j=1}^{n}(-1)^{l+j}.a_{l,j}.|a(m\ |\ j)|\\ \color{red}{|E_{l,l+1}.A|=-|A|=|E_{l,l+1}|.|A|} $$

3.) $A=[a_{i,j}]$ y $B=E_{l,m}(k).A=[b_{i,j}]$ donde $b_{m,j}=a_{m,j}+k.a_{l,j}$ $$ |E_{l,m}(k).A|=|B|=\sum_{j=1}^{n} (-1)^{m+j}.b_{m,j}.|b(m\ |\ j)|\\ =\sum_{j=1}^{n} (-1)^{m+j}.(a_{m,j}+k.a_{l,j}).|a(m\ |\ j)|\\ =\sum_{j=1}^{n} (-1)^{m+j}.a_{m,j}.|a(m\ |\ j)|+k.\sum_{j=1}^{n} (-1)^{m+j}.a_{l,j}.|a(m\ |\ j)|=|A|+0\\ \color{red}{|E_{l,m}(k).A|=|A|=|E_{l,m}(k).A|.|A|} $$

$\color{blue}{\text{Theorem 2}}:$ Para las tres posibles matrices elementales tenemos los determinantes, $$ \boxed{|E_{i,j}|=-1\\ |E_i{(k)}|=k\\ |E_{i,j}(k)|=1} $$ Prueba :

Utilizando $\color{blue}{\text{Theorem 1}}$ ,

$$ |E_{i,j}|=|E_{i,j}.I|=-|I|=-1\\ |E_i(k)|=|E_i(k).I|=k|I|=k.1=k\\ |E_{i,j}(k)|=|E_{i,j}(k).I|=|I|=1 $$

$\color{blue}{\text{Theorem 3}}:$ Si $A$ es una matriz no singular, entonces existen matrices elementales $E_1,E_2,E_3....E_n$ para que,

$$\boxed{ A=E_n....E_3.E_2.E_1.I=E_n....E_3.E_2.E_1} $$

$\color{blue}{\text{Theorem 4}}:$

Una matriz $A$ se llama singular si la ecuación $Ax=0$ tiene una solución no nula.

Prueba :

Si $A$ es no singular, es decir. $|A|\neq0$ , $$ Ax=b\implies A^{-1}\big(Ax\big)=A^{-1}b \quad (A \text{ is non-singular}\implies A\text{ is invertible}) \\Ix=A^{-1}b\implies x=A^{-1}b $$ Así, $$ Ax=0\implies x=0 $$ Si $A$ es no singular $Ax=0$ sólo puede tener la solución trivial $x=0$ . Así, $$\boxed{ Ax=0 \text{ has non-trivial solution}\iff |A|=0 \text{ }\big(\text{i.e, }A\text{ is singular}\big)} $$

Caso 1 : Si $B$ es singular,

Desde $\color{blue}{\text{Theorem 4}}$ ,

hay un vector $x\neq 0$ tal que $Bx=0$ . Por lo tanto, $$ ABx=A(Bx)=A.0=0 $$ La ecuación $ABx=0$ también tiene una solución no trivial $x\neq0$ . Por lo tanto, $AB$ es singular, es decir. $|AB|=0$ $$ |AB|=0=|A||B| $$

Caso 2 : Si $B$ es no singular,

$$ |AB|=|A.E_n....E_3.E_2.E_1|\qquad\color{blue}{\big(\text{Theorem 3}\big)} \\=|A|.|E_n|....|E_3|.|E_2|.|E_1|\qquad\color{blue}{\big(\text{Theorem 1}\big)} \\=|A|.|E_n....E_3.E_2.E_1|\qquad\color{blue}{\big(\text{Theorem 1}\big)} \\=|A|.|B|\qquad\color{blue}{\big(\text{Theorem 3}\big)}\qquad\color{white}{\big(\text{There.}\big)} $$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X