88 votos

Cómo demostrar que $\det(AB) =\det(A) \det(B)$ ?

Dadas dos matrices cuadradas $A$ y $B$ ¿Cómo se demuestra que $$\det(AB) = \det(A)\det(B)$$ donde $\det(\cdot)$ es el determinante de la matriz?

13 votos

¿La prueba no aparece en su libro de texto?

1 votos

Pues buscando en Google me da este enlace: - math.osu.edu/~husen/teaching/571/2_2.pdf

16 votos

Pista: Demuestre que la fórmula es válida, si $A$ es una matriz elemental. Por inducción demuestre que se cumple si $A$ es un producto de matrices elementales. ¿Qué casos no se contemplan? Estúdialos por separado.

63voto

Andy Puntos 21

Consideremos la función $B\mapsto \det(AB)$ en función de las columnas de $B=\left(v_1|\cdots |v_i| \cdots | v_n\right)$ . Es sencillo comprobar que este mapa es multilineal, en el sentido de que $$\det\left(A\left(v_1|\cdots |v_i+av_i'| \cdots | v_n\right)\right)=\det\left(A\left(v_1|\cdots |v_i| \cdots | v_n\right)\right)+a\det\left(A\left(v_1|\cdots |v_i'| \cdots | v_n\right)\right).$$ También es alternativo, en el sentido de que si se intercambian dos columnas de $B$ se multiplica el resultado global por $-1$ . Estas propiedades se derivan directamente de las propiedades correspondientes de la función $A\mapsto \det(A)$ .

El determinante está completamente caracterizado por estas dos propiedades, y el hecho de que $\det(I)=1$ . Además, cualquier función que satisfaga estas dos propiedades debe ser un múltiplo del determinante. Si no has visto este hecho, deberías intentar demostrarlo. No conozco una referencia en línea, pero sé que está contenida en el libro de álgebra lineal de Bretscher.

En cualquier caso, debido a este hecho, debemos tener que $\det(AB)=c\det(B)$ para alguna constante $c$ y el ajuste $B=I$ vemos que $c=\det(A)$ .

3 votos

+1. Buena respuesta. Creo que la definición de "alternancia" que hace funcionar tu argumento (y que es la clásica) es " $f(B)$ está alternando en $B$ si $f(B)=0$ siempre que dos columnas de $B$ coincidir". Por supuesto, si $2$ es invertible en el anillo de tierra, esto es equivalente a su formulación.

1 votos

Estoy acostumbrado a ver el multilineal como $$\det\left(A\left(v_1|\cdots |av_i+a'v_i'| \cdots | v_n\right)\right)=a\det\left(A\left(v_1|\cdots |v_i| \cdots | v_n\right)\right)+a'\det\left(A\left(v_1|\cdots |v_i'| \cdots | v_n\right)\right)$$ Sin embargo, esa versión se puede derivar de la versión anterior observando que $$\det\left(A\left(v_1|\cdots |v_i+(a-1)v_i| \cdots | v_n\right)\right)=\det\left(A\left(v_1|\cdots |v_i| \cdots | v_n\right)\right)+(a-1)\det\left(A\left(v_1|\cdots |v_i| \cdots | v_n\right)\right)$$

0 votos

@Pierre-Yves Gaillar: Sí, en la característica 2, tu definición de alternancia es la correcta, pero en todas las demás, esta formulación equivalente es más fácil de trabajar, al menos si quieres trabajar algorítmicamente/constructivamente. He asumido tácitamente que si quieres saber la respuesta a esta pregunta, probablemente estés trabajando en la característica cero. Si tienes formación algebraica, una prueba más limpia es tomar la cuña superior de un mapa lineal, reconocer $\det$ como la correspondiente transformación lineal entre espacios unidimensionales, y utilizar la functorialidad de los productos cuña.

39voto

freespace Puntos 9024

La demostración utilizando matrices elementales puede encontrarse, por ejemplo, en proofwiki . Es básicamente la misma prueba que se da en el comentario de Jyrki Lahtonen y en el enlace de Chandrasekhar.

También hay una demostración utilizando matrices de bloques, he buscado un poco en Google y sólo he podido encontrarla en este libro y este documento .


Me gusta el enfoque que aprendí del libro Linear Algebra Done Right de Sheldon Axler, Teorema 10.31 . Voy a intentar reproducir la prueba aquí.

Utilizaremos varios resultados en la prueba, uno de ellos es -por lo que puedo decir- un poco menos conocido. Se trata de la teorema que dice que si tengo dos matrices $A$ y $B$ que sólo se diferencian en $k$ -y las demás filas son iguales, y la matriz $C$ tiene como $k$ -la suma de $k$ -a filas de $A$ y $B$ y otras filas son las mismas que en $A$ y $B$ entonces $|C|=|B|+|A|$ .

Geométricamente Esto corresponde a la adición de dos paralelepípedos con la misma base.


Prueba. Denotemos las filas de $A$ por $\vec\alpha_1,\ldots,\vec\alpha_n$ . Así, $$A= \begin{pmatrix} a_{11} & a_{12}& \ldots & a_{1n}\\ a_{21} & a_{22}& \ldots & a_{2n}\\ \vdots & \vdots& \ddots & \vdots \\ a_{n1} & a_{n2}& \ldots & a_{nn} \end{pmatrix}= \begin{pmatrix} \vec\alpha_1 \\ \vec\alpha_2 \\ \vdots \\ \vec\alpha_n \end{pmatrix}$$

Directamente de la definición de producto matricial podemos ver que las filas de $A\cdot B$ son de la forma $\vec\alpha_kB$ es decir, $$A\cdot B=\begin{pmatrix} \vec\alpha_1B \\ \vec\alpha_2B \\ \vdots \\ \vec\alpha_nB \end{pmatrix}$$ Desde $\vec\alpha_k=\sum_{i=1}^n a_{ki}\vec e_i$ podemos reescribir esta igualdad como $$A\cdot B=\begin{pmatrix} \sum_{i_1=1}^n a_{1i_1}\vec e_{i_1} B\\ \vdots\\ \sum_{i_n=1}^n a_{ni_n}\vec e_{i_n} B \end{pmatrix}$$ Utilizando el teorema de la suma de determinantes varias veces obtenemos $$ |{A\cdot B}|= \sum_{i_1=1}^n a_{1i_1} \begin{vmatrix} \vec e_{i_1}B\\ \sum_{i_2=1}^n a_{2i_2}\vec e_{i_2} B\\ \vdots\\ \sum_{i_n=1}^n a_{ni_n}\vec e_{i_n} B \end{vmatrix}= \ldots = \sum_{i_1=1}^n \ldots \sum_{i_n=1}^n a_{1i_1} a_{2i_2} \dots a_{ni_n} \begin{vmatrix} \vec e_{i_1} B \\ \vec e_{i_2} B \\ \vdots \\ \vec e_{i_n} B \end{vmatrix} $$

Ahora bien, observe que si $i_j=i_k$ para algunos $j\ne k$ , entonces el determinante correspondiente en la suma anterior es cero (tiene dos filas idénticas ). Así, los únicos sumandos no nulos son aquellos para los que la $n$ -tupla $(i_1,i_2,\dots,i_n)$ representa una permutación de los números $1,\ldots,n$ . Por lo tanto, obtenemos $$|{A\cdot B}|=\sum_{\varphi\in S_n} a_{1\varphi(1)} a_{2\varphi(2)} \dots a_{n\varphi(n)} \begin{vmatrix} \vec e_{\varphi(1)} B \\ \vec e_{\varphi(2)} B \\ \vdots \\ \vec e_{\varphi(n)} B \end{vmatrix}$$ (Aquí $S_n$ denota el conjunto de todas las permutaciones de $\{1,2,\dots,n\}$ .) La matriz en el lado derecho de la igualdad anterior es la matriz $B$ con filas permutadas. Utilizando varias transposiciones de filas podemos obtener la matriz $B$ . Demostraremos que esto se puede hacer utilizando $i(\varphi)$ transposiciones, donde $i(\varphi)$ denota el número de inversiones de $\varphi$ . Utilizando este hecho obtenemos $$|{A\cdot B}|=\sum_{\varphi\in S_n} a_{1\varphi(1)} a_{2\varphi(2)} \dots a_{n\varphi(n)} (-1)^{i(\varphi)} |{B}| =|A|\cdot |B|.$$

Queda por demostrar que necesitamos $i(\varphi)$ transposiciones. Podemos transformar la "matriz permutada" en matriz $B$ de la siguiente manera: primero movemos la primera fila de $B$ en el primer lugar intercambiándolo con la fila anterior hasta que esté en la posición correcta. (Si ya está en la primera posición, no hacemos ningún intercambio). El número de transposiciones que hemos utilizado es exactamente el número de inversiones de $\varphi$ que contiene el número 1. Ahora podemos trasladar la segunda fila al segundo lugar de la misma manera. Utilizaremos el mismo número de transposiciones que el número de inversiones de $\varphi$ que contiene 2 pero no contiene 1. (Puesto que la primera fila ya está en su sitio). Continuamos de la misma manera. Vemos que utilizando este procedimiento obtenemos la matriz $B$ después de $i(\varphi)$ transposiciones de filas.

2 votos

Hola Martín, quizá me esté perdiendo algo, pero lo que llamas "un teorema poco conocido" me parece que es simplemente la multilinealidad del determinante en función de las filas, ¿no?

2 votos

@pppqqq Sí, eso es correcto. Mi experiencia es que la gente que hace un curso básico de álgebra lineal no suele estar familiarizada con ella. (He visto algunas preguntas en las que sería muy natural utilizar este resultado en la solución; pero la gente eligió algún enfoque diferente en su lugar). Además, alguien que está aprendiendo determinantes por primera vez puede que ni siquiera sepa qué es la palabra multilinealidad significa.

32voto

codemac Puntos 689

Dejemos que $K$ sea el anillo de tierra. La afirmación es válida

(a) cuando $B$ es diagonal,

(b) cuando $B$ es estrictamente triangular,

(c) cuando $B$ es triangular (por (a) y (b)),

(d) cuando $A$ y $B$ tienen entradas racionales y $K$ es una extensión de $\mathbb Q$ que contiene los valores propios de $B$ (por (c)),

(e) cuando $K=\mathbb Q$ (por (d)),

(f) cuando $K=\mathbb Z[a_{11},\dots,a_{nn},b_{11},\dots,b_{nn}]$ , donde el $a_{ij}$ y $b_{ij}$ son respectivamente las entradas de $A$ y $B$ y son indeterminados (por (e)),

(g) siempre (por (f)).

El lector que sepa cuál es el discriminante de un polinomio en $\mathbb Q[X]$ es, puede saltarse (b) y (c).

Referencia: este MathOverflow respuesta de Bill Dubuque.

EDITAR 1. El principio que subyace al argumento anterior tiene varios nombres. Bill Dubuque lo llama principio de "universalidad". Michael Artin lo llama "principio de permanencia de las identidades". La sección de Álgebra con este título puede verse aquí . Sugiero encarecidamente la lectura de esta sección a quienes no estén familiarizados con ella. Es una interesante coincidencia que la ilustración elegida por Artin sea precisamente la multiplicatividad de los determinantes.

Otra aplicación muy importante es la demostración del Teorema de Cayley-Hamilton. No la expondré aquí, pero haré una digresión sobre otro punto. Es decir, intentaré explicar por qué

(*) basta con demostrar Cayley-Hamilton o la multiplicatividad de los determinantes en el caso diagonal.

Supongamos que tenemos un mapa polinómico $f:M_n(\mathbb Z)\to\mathbb Z$ . Entonces $f$ viene dada por un único elemento, también denotado como $f$ de $\mathbb Z[a_{11},\dots,a_{nn}]$ , donde el $a_{ij}$ son indeterminados (porque $\mathbb Z$ es un dominio infinito). En consecuencia, dado cualquier $A$ en $M_n(K)$ para cualquier anillo conmutativo $K$ podemos definir $f_K(A)$ mediante la asignación de la indeterminada $a_{ij}$ a la entrada correspondiente de $A$ . Ese es el Principio de Permanencia de las Identidades. La clave para demostrar (*) será:

LEMA 1. Dejemos que $f:M_n(\mathbb Z)\to\mathbb Z$ sea un mapa polinómico que desaparece en las matrices diagonalizables. Entonces $f$ desaparece en todas las matrices.

Hay al menos dos formas de demostrarlo. El lector quizá prefiera la primera, pero (IMHO) la segunda es mejor.

De la primera manera: Basta con demostrar que el mapa polinómico $f_{\mathbb C}:M_n(\mathbb C)\to\mathbb C$ es cero. Por lo tanto, basta con demostrar que las matrices diagonalizables son densas en $M_n(\mathbb C)$ . Pero esto está claro ya que cualquier $A\in M_n(\mathbb C)$ es similar a una matriz triangular $T$ y las entradas diagonales de $T$ (que son los valores propios de $A$ ) pueden hacerse todas distintas añadiendo una matriz diagonal arbitrariamente pequeña.

Segunda forma. Consideremos de nuevo el anillo $R:=\mathbb Z[a_{11},\dots,a_{nn}]$ , donde el $a_{ij}$ son indeterminados. Sea $A$ en $M_n(R)$ sea la matriz cuya $(i,j)$ La entrada es $a_{ij}$ . Sea $\chi\in R[X]$ sea el polinomio característico de $A$ y que $u_1,\dots,u_n$ sean las raíces de $\chi$ (en alguna extensión del campo de fracciones de $R$ ).

LEMA 2. La expresión $$\prod_{i < j}\ (u_i-u_j)^2$$ define un único elemento no nulo de $d\in R$ , llamado el discriminante de $\chi$ .

El lema 2 implica el lema 1 porque $R$ es un dominio y porque tenemos $fd=0$ desde $f$ desaparece en las matrices diagonalizables, mientras que $d$ desaparece en las matrices no diagonalizables.

El lema 2 es un caso particular de un teorema que dice que, dado cualquier polinomio mónico $g$ en una indeterminada y coeficientes en un campo, cualquier polinomio en el raíces de $g$ que es invariante bajo permutación es un polinomio en el coeficientes de $g$ . Más concretamente:

Dejemos que $A$ sea un anillo conmutativo, sea $X_1,\dots,X_n,T$ sean indeterminados, y que $s_i$ sea el grado $i$ polinomio simétrico elemental en $X_1,\dots,X_n$ . Recordemos que el $s_i$ se definen por $$ f(T):=(T-X_1)\cdots(T-X_n)=T^n+\sum_{i=1}^n\ (-1)^i\ s_i\ T^{n-i}. $$ Abreviamos $X_1,\dots,X_n$ por $X_\bullet$ y $s_1,\dots,s_n$ por $s_\bullet$ . Sea $G$ el grupo de permutaciones de la $X_i$ y $A[X_\bullet]^G\subset A[X_\bullet]$ el anillo fijo. Para $\alpha\in\mathbb N^n$ poner $$ X^\alpha:=X_1^{\alpha_1}\cdots X_1^{\alpha_1},\quad s^\alpha:=s_1^{\alpha_1}\cdots s_1^{\alpha_1}. $$ Escriba $\Gamma$ para el conjunto de los $\alpha\in\mathbb N^n$ que satisfacen $\alpha_i<i$ para todos $i$ y poner $$ X^\Gamma:=\{X^\alpha\ |\ \alpha\in\Gamma\}. $$

TEOREMA FUNDAMENTAL DE LOS POLINOMIOS SIMÉTRICOS. El $s_i$ generar el $A$ -Álgebra $A[X_\bullet]^G$ .

PRUEBA. Obsérvese que el mapa $u:\mathbb N^n\to\mathbb N^n$ definido por $$ u(\alpha)_i:=\alpha_i+\cdots+\alpha_n $$ es inyectiva. Ordenar $\mathbb N^n$ lexicográficamente, observe que el término principal de $s^\alpha$ es $X^{u(\alpha)}$ y argumentar por inducción en el ordenamiento lexicográfico de $\mathbb N^n$ .

EDITAR 2.

Identidades polinómicas

Michael Artin escribe:

Es posible formalizar la discusión anterior y demostrar un teorema preciso sobre la validez de las identidades en un anillo arbitrario. Sin embargo, incluso los matemáticos piensan a veces que no vale la pena hacer una formulación precisa, que es más fácil considerar cada caso según se presente. Esta es una de esas ocasiones.

Voy a desobedecer y hacer una formulación precisa (tomada de Bourbaki). Si $A$ es un anillo conmutativo y $T_1,\dots,T_k$ son indeterminados, denotemos la forma obvia de morfismo $\mathbb Z[T_1,\dots,T_k]$ a $A[T_1,\dots,T_k]$ por $f\mapsto\overline f$ .

Dejemos que $X_1,\dots,X_m,Y_1,\dots,Y_n$ sean indeterminados.

Dejemos que $f_1,\dots,f_n$ estar en $\mathbb Z[X_1,\dots,X_m]$ .

Dejemos que $g$ estar en $\mathbb Z[Y_1,\dots,Y_n]$ .

La expresión $g(f_1,\dots,f_n)$ denota entonces un polinomio bien definido en $\mathbb Z[X_1,\dots,X_m]$ .

Si este polinomio es el polinomio cero, digamos que $(f_1,\dots,f_n,g)$ es un $(m,n)$ -identidad polinómica .

El "teorema" es este:

Si $(f_1,\dots,f_n,g)$ es un $(m,n)$ -identidad polinómica, y si $x_1,\dots,x_m$ están en $A$ , donde $A$ es cualquier anillo conmutativo, entonces $$g(f_1(x_1,\dots,x_m),\dots,f_n(x_1,\dots,x_m))=0.$$

El ejercicio: Es $$(X_1^3-X_2^3,X_1-X_2,X_1^2+X_1X_2+X_2^2,Y_1-Y_2Y_3)$$ a $(2,3)$ -¿Identidad polinómica?

Claramente, la multiplicatividad de los determinantes y el Cayley-Hamilton pueden expresarse en términos de identidades polinómicas en el sentido anterior.

Álgebras exteriores

Para demostrar la multiplicatividad de los determinantes, también se puede proceder como sigue.

Dejemos que $A$ sea un anillo conmutativo y $M$ un $A$ -módulo. Se puede demostrar que existe un $A$ -Álgebra $\wedge(M)$ , llamado el álgebra exterior de $M$ [aquí "álgebra" significa "álgebra no necesariamente conmutativa"], y un $A$ -mapa lineal $e_M$ de $M$ a $\wedge(M)$ con la siguiente propiedad:

Por cada $A$ -mapa lineal $f$ de $M$ a un $A$ -Álgebra $B$ satisfaciendo $f(x)^2=0$ para todos $x$ en $M$ hay un único $A$ -morfismo de álgebra $F$ de $\wedge(M)$ a $B$ tal que $F\circ e_M=f$ .

Se puede probar $e_M(x)^2=0$ para todos $x$ en $M$ . Esto implica fácilmente que $\wedge$ es un functor de $A$ -módulos a $A$ -algebras.

Dejemos que $\wedge^n(M)$ sea el submódulo de $\wedge(M)$ generado por el $e_M(x_1)\cdots e_M(x_n)$ , donde el $x_i$ atropellar $M$ . Entonces $\wedge^n$ es un functor de $A$ -módulos a $A$ -módulos.

Se puede demostrar que el $A$ -Módulo $\wedge^n(A^n)$ es isomorfo a $A$ . Para cualquier endomorfismo $f$ de $A^n$ , uno define $\det(f)$ como ser $\wedge^n(f)$ . La multiplicidad es entonces evidente.

1 votos

+1 por la discusión detallada de la permanencia de las identidades, sobre todo por la prueba tan genial del lema 1 usando el discriminante.

0 votos

Parece mucho trabajo para demostrar una afirmación tan (relativamente) sencilla, pero como el principio esbozado funciona con una generalidad tan asombrosa, me parece que es algo que realmente merece la pena conocer.

0 votos

@Pierre-Yves: ¿Podrías explicar por qué ayuda tener diferentes valores propios en una matriz triangular para demostrar que está en el cierre de las matrices diagonalizables?

26voto

Philip Fourie Puntos 12889

Hay muchas respuestas ya publicadas, pero me gusta esta basada en la definición del determinante basada en las permutaciones. Es una definición que es equivalente a otras definiciones, y dependiendo de tu libro/fondo, puedes demostrar la equivalencia tú mismo. Para un $n\times n$ matriz $A$ , defina $\det(A)$ por:

\begin{align*} \det(A) & = \sum_{\sigma\in S_n}(-1)^{\sigma}\prod_{i=1}^nA_{i,\sigma(i)} \end{align*}

donde

  • $S_n$ es el grupo de permutación en $n$ objetos
  • $(-1)^{\sigma}$ es $1$ cuando $\sigma$ es una permutación par y $-1$ para una permutación impar.

Sólo hay que aplicar esto a $2\times2$ y $3\times3$ matrices, y obtendrá fórmulas familiares.

Ahora la prueba de abajo es un montón de empuje de símbolos y reindexación, y luego un gran subconjunto de términos que se agrupan de la manera correcta se ven a sumar a cero. En general, preferiría una de las pruebas más geométricas ya ofrecidas para esta cuestión específica. Pero al mismo tiempo, como algebrista, me gusta dar a conocer la definición basada en permutaciones.

\begin{align*} \det(AB) & = \sum_{\sigma\in S_n}(-1)^\sigma\prod_{l=1}^n(AB)_{l,\sigma(l)}\\ & = \sum_{\sigma\in S_n}(-1)^\sigma\prod_{l=1}^n\left(\sum_{k=1}^nA_{l,k}B_{k,\sigma(l)}\right) \end{align*}

Nos gustaría intercambiar la suma y el producto internos. En general, $\prod_{l=1}^n\left(\sum_{k=1}^mc_{l,k}\right) = \sum_{\bar{k}}\left(\prod_{l=1}^nc_{l,k_l}\right)$ donde la segunda suma es sobre todos los $\bar{k}=(k_1,k_2,\ldots,k_n)$ con cada $k_l$ en $\left\{1,2,\ldots ,m\right\}$ . Aquí tenemos un producto de sumas con $m=n$ . Por lo tanto,

\begin{align} \det(AB) & = \sum_{\sigma\in S_n}(-1)^\sigma\sum_{\bar{k}}\left(\prod_{l=1}^nA_{l,k_l}B_{k_l,\sigma(l)}\right)\\ & = \sum_{\bar{k}}\sum_{\sigma\in S_n}(-1)^\sigma\left(\prod_{l=1}^nA_{l,k_l}B_{k_l,\sigma(l)}\right) \\ \end{align}

En este punto, hay dos tipos de $\bar{k}$ a tener en cuenta. Recuerde que cada $\bar{k}$ es un $n$ -pareja de enteros entre $1$ y $n$ . Algunos $n$ -tuplas tienen entradas repetidas, y otras no. Si $\bar{k}$ no tiene entradas repetidas, define una permutación $\tau:\{1,2,\ldots , n\}\to\{1,2,\ldots , n\}$ que envía cada $l$ a $k_l$ .

Supongamos que $\bar{k}$ tiene una entrada repetida: $k_p=k_q$ . Entonces podemos emparejar los términos de la suma interna para que se anulen entre sí. En concreto, emparejamos cada $\sigma$ con $\sigma\cdot(p\;q)$ , donde $(p\;q)$ es la transposición que intercambia la posición $p$ con $q$ . La contribución de estos dos términos a la suma interna es

\begin{align*} & \phantom{{}={}}\pm\left(\left(\prod_{l=1}^nA_{l,k_l}B_{k_l,\sigma(l)}\right)-\left(\prod_{l=1}^nA_{l,k_l}B_{k_l,\sigma((p\;q)l)}\right)\right)\\ &= \pm\left(\left(\prod_{l=1}^nA_{l,k_l}\right)\left(\prod_{l=1}^nB_{k_l,\sigma(l)}\right)-\left(\prod_{l=1}^nA_{l,k_l}\right)\left(\prod_{l=1}^nB_{k_l,\sigma((p\;q)l)}\right)\right)\\ &= \pm\left(\left(\prod_{l=1}^nA_{l,k_l}\right)\left(\prod_{l=1}^nB_{k_l,\sigma(l)}\right)-\left(\prod_{l=1}^nA_{l,k_l}\right)\left(\prod_{l'=1}^nB_{k_{l'},\sigma(l'))}\right)\right) \end{align*}

donde el producto final ha sido reindexado con $l'=(p\;q)l$ y hemos aprovechado el hecho de que $k_l=k_{l'}$ para todos $l$ . La diferencia global es claramente cero. Así que en la ecuación anterior para $\det(AB)$ los únicos términos de la suma interna que hay que considerar son aquellos en los que $\bar{k}$ define una permutación $\tau$ .

\begin{align*} \det(AB) & = \sum_{\tau\in S_n}\sum_{\sigma\in S_n}(-1)^\sigma\left(\prod_{l=1}^nA_{l,\tau(l)}B_{\tau(l),\sigma(l)}\right) \end{align*}

Reindexación de la suma interna con $\sigma = \sigma'\tau$ ,

\begin{align*} \det(AB) & = \sum_{\tau\in S_n}\sum_{\sigma'\in S_n}(-1)^{\sigma'\tau}\left(\prod_{l=1}^nA_{l,\tau(l)}B_{\tau(l),\sigma'\tau(l)}\right) \\ & = \sum_{\tau\in S_n}\sum_{\sigma'\in S_n}(-1)^{\sigma'\tau}\left(\prod_{l=1}^nA_{l,\tau(l)}\right)\left(\prod_{l=1}^nB_{\tau(l),\sigma'\tau(l)}\right) \end{align*}

Reindexación del producto final con $l'=\tau(l)$ ,

\begin{align*} & = \sum_{\tau\in S_n}\sum_{\sigma'\in S_n}(-1)^{\sigma'\tau}\left(\prod_{l=1}^nA_{l,\tau(l)}\right)\left(\prod_{l'=1}^nB_{l',\sigma'(l')}\right)\\ & = \left(\sum_{\tau\in S_n}(-1)^{\tau}\prod_{l=1}^nA_{l,\tau(l)}\right)\left(\sum_{\sigma'\in S_n}(-1)^{\sigma'}\prod_{l'=1}^nB_{l',\sigma'(l')}\right)\\ & = \det(A)\det(B) \end{align*}

14 votos

+1 porque $\det(AB)=\det(A)\det(B)$ es en el fondo una identidad polinómica formal y esta demostración lo hace explícito.

0 votos

Muy buena prueba, pero creo que sería demasiado difícil para el típico estudiante principiante de álgebra lineal.

2 votos

@Mathemagician1234 Esta prueba se ofrece para variar.

22voto

knatten Puntos 181

Esto no es estrictamente una respuesta a la pregunta porque no es un argumento riguroso que $\det(AB)=\det(A)\det(B)$ . Pero para mí la idea que voy a compartir conlleva una gran cantidad de conocimientos útiles, así que la ofrezco con ese espíritu. Se basa en la interpretación geométrica del determinante:

Interpretación de $A$ como una transformación lineal de $n$ -espacio dimensional, $\det(A)$ es el efecto de $A$ en $n$ -volúmenes. Más concretamente, si un conjunto $S$ tiene $n$ -medida de la dimensión $k$ entonces el conjunto de imágenes $A(S)$ tiene $n$ -medida de la dimensión $\left|\det(A)\right|k$ es decir $\left|\det(A)\right|$ veces más grande. El signo de $\det(A)$ le indica si $A$ conserva o invierte la orientación.

Ejemplos:

Dejemos que $n=2$ por lo que estamos tratando con áreas en el plano.

Si $A$ es una matriz de rotación, entonces su efecto en el plano es una rotación. $\det(A)$ es positivo 1 porque $A$ en realidad preserva todas las áreas (por lo que el valor absoluto es 1) y preserva la orientación (por lo que es positivo).

Si $A$ tiene la forma $kI$ , $k$ positivo, entonces $\det(A)$ es $k^2$ . Esto se debe a que el efecto geométrico de $A$ es una dilatación por un factor de $k$ Así que $A$ El efecto de la superficie es multiplicar por $k^2$ .

Si $A$ tiene $1, -1$ en la diagonal principal y cero en el resto, entonces corresponde a la reflexión en la $x$ -eje. Aquí el determinante es $-1$ porque aunque $A$ conserva las áreas, invierte la orientación del plano.

Una vez que usted compra esta interpretación del determinante, $\det(AB)=\det(A)\det(B)$ se deduce inmediatamente porque el sentido de la multiplicación de matrices es que $AB$ corresponde a la transformación lineal compuesta $A \circ B$ . Mirando las magnitudes y los signos por separado: $A \circ B$ escala los volúmenes por $\left|\det(B)\right|$ y luego otra vez por $\left|\det(A)\right|$ , por lo que en total por $\left|\det(A)\right|\left|\det(B)\right|=\left|\det(A)\det(B)\right|$ . Te dejaré pensar en las señales y orientaciones.

Este argumento se convierte en una prueba rigurosa a través de una prueba de la interpretación geométrica del determinante. La forma de demostrarlo dependerá de la definición que se utilice para el determinante. Si se definido el determinante como el efecto de $A$ en $n$ -volúmenes (en el sentido anterior), omitiríamos la necesidad de este paso. (Todavía tendríamos que demostrar que para una transformación lineal el efecto sobre $n$ -el volumen no depende del conjunto; y para evitar la circularidad necesitaríamos una forma de definir la orientación que no dependiera del determinante -en mi experiencia muchas definiciones de orientación sí dependen de él). Por otro lado, si definimos el determinante de cualquiera de las formas algebraicas más habituales, nos queda algo por demostrar aquí. Pero espero que esta forma de ver las cosas sea útil en cualquier caso.

4 votos

En realidad esta prueba se puede hacer algebraica utilizando potencias exteriores. Esto también funciona sobre cualquier anillo conmutativo $R$ . Si $A : R^n \to R^n$ es $R$ -lineal, entonces $\mathrm{det}(A)$ es el único elemento de $R$ tal que $\Lambda^n(A)(v_1 \wedge \dotsc \wedge v_n)$ escalas $v_1 \wedge \dotsc \wedge v_n$ por $\mathrm{det}(A)$ . Una vez conocida esta caracterización (que se deduce fácilmente de $\Lambda^n(R^n) \cong R$ ), la multiplicatividad es inmediata porque $\Lambda^n(A \circ B) = \Lambda^n(A) \circ \Lambda^n(B)$ .

2 votos

Estoy de acuerdo en que en sus formas "simples" esto está lejos de ser una prueba, pero esta es, con mucho, mi forma favorita de explicando por qué $\det(AB)=\det(A)\det(B)$ especialmente a los programadores de gráficos y juegos (que son los principales interlocutores de los determinantes en la actualidad).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X