34 votos

Prueba de que $\text{det}(AB) = \text{det}(A)\text{det}(B)$ sin expresión explícita para $\text{det}$

Resumen

Estoy buscando una aproximación al álgebra lineal en la línea de ¡Abajo el determinante! por Sheldon Axler. Estoy siguiendo su libro de texto Álgebra lineal bien hecha . En estas referencias el autor adopta un enfoque del álgebra lineal que evita en lo posible el uso de la expresión explícita de los determinantes. La motivación para ello es que las expresiones explícitas para el determinante, aunque son útiles para calcular cosas, son difíciles de intuir. Sin embargo, esta pregunta no trata de debatir los méritos de este enfoque.

Utilizo la terminología de Axler que es un poco diferente a la que estoy acostumbrado. Lo que él llama isometría yo lo llamaría unitario y lo que él llama positivo yo lo llamaría semidefinido positivo.

Motivación adicional

Me gustaría proporcionar más información sobre el motivo por el que solicito esta prueba. Sé que en entornos muy generales (geometría diferencial, por ejemplo) es posible realizar integrales en colectores utilizando diferenciales $N$ -formas de $\Lambda^N$ . La característica esencial de estos objetos es que son alternativos y multilineales. Quiero entender por qué existe una relación profunda entre las formas alternas y multilineales. La sugerencia es que esta relación se produce porque los volúmenes pueden caracterizarse, fundamentalmente, como algo que se transforma de forma alterna y multilineal.

Por desgracia, no me parece una afirmación convincente sobre los volúmenes. Vea mi búsqueda aquí. Ayuda para demostrar que el volumen con signo del n-paralelepípedo es multilineal . Más bien, el hecho de que los volúmenes se transformen de forma multilineal y alterna es realmente difícil de demostrar directamente y parece ser un poco particular a las propiedades de los paralelepípedos específicamente. Y luego, por supuesto, podemos embaldosar $\mathbb{R}^N$ utilizando paralelepípedos, por lo que el resultado general es el siguiente.

Lo que me parece más intuitivo es caracterizar "fundamentalmente" el volumen con signo como algo que escala linealmente con las escalas de los ejes de coordenadas (multiplicación por una matriz diagonal) y que permanece igual o cambia de signo bajo una rotación propia o impropia (multiplicación por una matriz unitaria con producto positivo o negativo de valores propios).

Estas dos propiedades PARECEN poder demostrarse sólo mirando los valores propios de las matrices de transformación, pero una prueba no parece evidente sin basarse de alguna manera en las funciones multilineales/alternas. Esto implicaría que la caracterización multilineal/alternativa de los volúmenes es de alguna manera más fundamental que la que yo propongo.

Esto me resulta muy sorprendente, sobre todo teniendo en cuenta lo difícil que es demostrarlo directamente para los volúmenes... De ahí mi búsqueda de una prueba sobre el producto de valores propios de un producto de matrices.

Configuración del problema

Mi pregunta:

Cada complejo $N\times N$ matriz $A$ tiene $N$ valores propios $\lambda_1, \ldots, \lambda_N$ . Algunos de estos valores propios pueden estar repetidos y otros pueden ser iguales a cero. Defina el determinante de $A$ como

$$ \text{det}(A) = \prod_{i=1}^N\lambda_i $$

Es bien sabido que para dos $N\times N$ matrices $A$ et $B$ que

$$ \text{det}(AB) = \text{det}(A)\text{det}(B) $$

Sin embargo, esta prueba se basa típicamente (véase más adelante) en el conocimiento de una expresión explícita para $\text{det}$ en términos de los elementos de la matriz de $A$ et $B$ como

$$ \text{det}(A) = \sum_{\sigma \in S_N}\prod_{i=1}^N A_{i, \sigma(i)} = \sum_{i_1, \ldots, i_N=1}^N \epsilon_{i_1\ldots i_N} \prod_{j=1}^N A_{j, i_j}. $$

Tengo curiosidad por saber si existe una prueba de $\text{det}(AB) = \text{det}(A)\text{det}(B)$ utilizando la definición que he dado anteriormente y que no se basa en estas sumas alternas explícitas, por ejemplo, en la línea del enfoque de Axler.

Un intento de solución

En su libro de texto, Axler demuestra algunos teoremas clave, todos ellos sin utilizar las expresiones alternas anteriores. Estos incluyen hechos sobre los valores propios de las matrices y varios teoeremas espectrales y de descomposición del valor singular. Creo que la descomposición polar puede ser útil aquí. Algo así como:

\begin{align} A =& S_A P_A\\ B =& P_B S_B\\ AB =& S_A P_A P_B S_B \end{align}

Con $S_{A,B}$ isometrías (unitarias) y $P_A$ et $P_B$ son matrices positivas (semidefinidas positivas).

Con dos hechos la prueba estaría completa: Si pudiéramos demostrar $\text{det}(PS) = \text{det}(PS) = \text{det}(S)\text{det}(P)$ para la isometría $S$ y positivo $P$ (o arbitrario $P$ ) entonces tendríamos

$$ \text{det}(AB) = \text{det}(S_A)\text{det}(S_B)\text{det}(P_A P_B) $$

Si pudiéramos entonces mostrar también $\text{det}(P_A P_B) = \text{det}(P_A)\text{det}(P_B)$ entonces la prueba estaría completa.

Otros intentos de solución

Otras cosas útiles que he aprendido: Está claro que multiplicar una matriz por una matriz unitaria no cambia los valores singulares. Además, si pudiera demostrar que el producto de los valores propios o singulares de $C = \Sigma_1 U \Sigma_2$ con $U$ unitario y $\Sigma_{1, 2}$ diagonal y positiva, es igual al producto de los valores propios/singulares de $\Sigma_1$ et $\Sigma_2$ Sería capaz de demostrar que multiplicando $A$ et $B$ resultados arbitrarios al multiplicar el producto de sus valores singulares. El $\text{det(A)}$ podría entonces definirse alternativamente como algo así como $A = U \Sigma V^*$ et $\text{det}(A)$ es igual al producto de los elementos diagonales de $\Sigma$ por el producto de los valores propios de $U$ et $V$ .

Por último, otro enfoque. Todos mis enfoques hasta ahora se han basado básicamente en las propiedades de las matrices y en la manipulación de las mismas. Puede ser que este enfoque sea erróneo. Los valores propios están relacionados con el polinomio característico de una matriz (que Axler define sin necesidad del determinante) y el teorema fundamental del álgebra. Quizás haya que volver a este dominio algebraico para obtener la respuesta a lo que busco. Soy bastante inexperto en ese dominio, así que cualquier idea sería de gran ayuda.

Preguntas explícitas

Mis preguntas son:

  • ¿Puede alguien proporcionar una prueba para $\text{det}(PS)=\text{det}(SP) = \text{det}(S)\text{det}(P)$ para la isometría $S$ y positivo (o arbitrario) $P$ ?
  • ¿Puede alguien proporcionar una prueba para $\text{det}(P_A P_B) = \text{det}(P_A)\text{det}(P_B)$ para que sea positivo $P_A$ et $P_B$ ?
  • Dejemos que $C = \Sigma_1 U \Sigma_2$ con $\Sigma_{1, 2}$ diagonal (con entradas positivas distintas de cero) y $U$ unitario. Sea $\Pi(A)$ es igual al producto de los valores singulares de $A$ . Sabiendo que $\Pi(UA)=\Pi(A)$ para los unitarios $U$ ¿Puede alguien proporcionar una prueba de que $\Pi(C) = \Pi(\Sigma_1)\Pi(\Sigma_2)$ ?
  • Otra posibilidad es que haya un enfoque totalmente diferente para demostrar esto sin la fórmula de cálculo alternativo.
  • Si alguien tiene razones para creer que lo que pido es imposible por alguna razón agradecería comentarios o respuestas que expliquen por qué podría ser imposible.

Pruebas que implican expresiones alternas explícitas para $\text{det}$

  • Este sitio web se basa en el hecho de que $\text{det}(A)\text{det}(B)$ al ampliar $A$ et $B$ en matrices elementales. A continuación, demuestra que al multiplicar una matriz por una matriz elemental se multiplica el determinante por un valor conocido. El resultado es el siguiente. La cuestión es que el efecto de la multiplicación por una matriz elemental en el determinante se demuestra utilizando una definición o propiedad de expansión por menores del determinante. https://sharmaeklavya2.github.io/theoremdep/nodes/linear-algebra/matrices/determinants/elementary-rowop.html

  • Casi todas las pruebas de este MSE utilizan una u otra fórmula alternativa Cómo demostrar que $\det(AB) =\det(A) \det(B)$ ?

  • Wikipedia et Hubbard y Hubbard dan una buena prueba que (1) utiliza el conocimiento de que el determinante es la única alternancia multilineal normalizada $N$ -en las columnas de una matriz muestra que la función $D(A) = \text{det}(AB)$ es alternativo y multilineal, por lo que $D(A)$ debe ser un múltiplo de $\text{det}(A)$ . También tenemos $D(I) = \text{det}(B)$ así que $D(A) =\text{det}(AB) = \text{det}(A)\text{det}(B)$ . Esta prueba es buena porque no depende de la expresión explícita de la alternancia para $\text{det}$ pero tiene el problema de que no sé cómo demostrar que el producto de los valores propios satisface la propiedad multilineal alternante sin proporcionar la expresión alternante explícita para $\text{det}$ . Otros ejemplos de este tipo de pruebas se pueden encontrar en MSE como Determinante del producto de la matriz

  • Aquí hay una prueba que utiliza una identidad en el símbolo levi-civita: demostrar que el determinante de un producto de matrices es el producto de sus determinantes en notación de sufijo / índice

Información reciente

Después de pensar más en este problema creo que me estoy convenciendo de que lo que pido no es posible, pero me estoy dando cuenta de una forma más convincente de pensar en la cosa. Hay tres conceptos relacionados. (1) Cómo una transformación lineal escala los volúmenes, $\text{svol}$ et $\text{vol}$ (2) El producto de los valores propios o singulares de una transformación lineal, $\Pi_e$ et $\Pi_s$ y (3) la forma multilineal alterna, $\text{det}$ et $|\text{det}|$ .

Más arriba, he esperado dar un tratamiento en el que $\Pi_e$ es de alguna manera la propiedad más fundamental y para derivar todas las propiedades sobre $\text{svol}$ et $\text{det}$ a partir de las propiedades de los valores propios. Como he dicho más arriba, empieza a parecer que esto puede no ser posible.

En cambio, creo que un enfoque más satisfactorio puede ser el siguiente. Tomar $\text{vol}$ o $\text{svol}$ ser fundamental y trabajar a partir de ahí. La idea interesante que he tenido es que hay dos maneras de desglosar las propiedades de $\text{vol}$ o bajo transformaciones lineales.

En la primera aproximación, podemos ver que (a1) al escalar por una matriz diagonal $\text{vol}$ escala por el valor absoluto del producto de las entradas y $\text{svol}$ escala por el producto, (b1) al multiplicar por una reflexión en un solo eje que $\text{vol}$ no se modifica, mientras que $\text{svol}$ cambia de signo, y (c1) ambos $\text{vol}$ et $\text{svol}$ no se modifican con las rotaciones adecuadas.

En la segunda aproximación tenemos que (a2) al escalar por una matriz diagonal $\text{vol}$ escala por el valor absoluto del producto de las entradas y $\text{svol}$ escala por el producto, (b2) cuando se intercambian dos ejes $\text{vol}$ no se modifica, mientras que $\text{svol}$ invierte el signo y (c2) $\text{vol}$ et $\text{svol}$ no se modifican con las operaciones de cizallamiento.

El primer enfoque se presta a una descomposición polar de la forma

$$ A = RUP $$

Donde $R$ es la identidad o un reflejo a través de un solo eje, $U$ es una matriz ortogonal especial, y $P$ es positivo-semidefinido. Esta descomposición se presta a mostrar la relación entre las propiedades de escala de volumen de una transformación y el producto de valores singulares o valores propios.

El segundo enfoque se presta a una descomposición de la forma

$$ A = E_1\ldots E_k $$

Donde $E_i$ son matrices elementales. Esta descomposición se presta a mostrar la relación entre las propiedades de transformación de volumen de una transformación y la forma multilineal alterna.

Se puede ver que las propiedades (a1), (a2) son iguales, (b1) y (b2) son esencialmente iguales, y que (c1) y (c2) son similares y equivalentes cuando se consideran a la luz de las otras propiedades. Así pues, el primer enfoque se centra en las rotaciones, mientras que el segundo se centra en las cizallas.

Considerando por el momento las matrices definidas positivas, creo que una forma de pensar en la relación entre el producto de los valores propios, $\Pi_e$ y la forma multilineal alterna $\text{det}$ es que son equivalentes porque (1) $\Pi_e$ está relacionado con las rotaciones y el estiramiento de los ejes de los volúmenes y (2) $\text{det}$ está relacionado con las cizallas y el estiramiento de los ejes de los volúmenes.

Sigue siendo un poco insatisfactorio que tengamos que hacer esta relación con volúmenes y tijeras para explicar por qué $\Pi_e(AB) = \Pi_e(A) \Pi_e(B)$ pero una de las razones que podría ver para ello es que $\Pi_e$ es un objeto muy complicado algebraicamente. La existencia de los valores propios sólo está garantizada por el teorema fundamental del álgebra, que no es constructivo, y la triangularización de las matrices complejas también parece un poco abstracta. Sabemos cómo trabajar con una transformación y un único valor propio o vector propio, pero no hay mucha maquinaria para trabajar con TODOS los valores propios a la vez, es decir $\Pi_e$ . Más bien, podemos utilizar el hecho de que el producto de los valores propios estira los volúmenes, y el hecho de que los volúmenes firmados son alternativos y multilineales, para llegar a una expresión explícita para el producto de los valores propios que nos permite derivar propiedades que no podríamos obtener de otro modo, como por ejemplo $\Pi_e(AB) = \Pi_e(A)\Pi_e(B)$ .

Tengo curiosidad por conocer la opinión de los demás. Puede que plantee (y responda quizás) una nueva pregunta relacionada con este último punto. Tengo algunas pruebas parciales y espero tener una explicación completa, ojalá intuitivamente satisfactoria, un poco más tarde, pero no estoy seguro.

7voto

Descargo de responsabilidad: Estoy haciendo un poco de trampa aquí porque

  1. En cierto sentido, acabo de demostrar que dos definiciones diferentes del determinante son iguales (a saber, la que dio el OP y la que utiliza formas multilineales).

  2. Todavía habría que demostrar que el determinante definido por la OP es continuo (lo que debe ser cierto). Tal vez uno puede utilizar que el polinomio característico varía continuamente a medida que se mueve continuamente a través de $\text{End}(V)$ .


Dejemos que $\Lambda^n(V)$ denotan el espacio de alternancia $n$ -transformaciones multilineales. Para cada $T\in\text{End}(V)$ hay un mapa de retroceso $T^*:\Lambda^n(V)\rightarrow\Lambda^n(V)$ definido por $$ T^*(\omega)(v_1,\ldots,v_n)=\omega(T(v_1),\ldots,T(v_n)) ,$$ para cada $\omega\in\Lambda^n(V)$ et $v_1,\ldots,v_n\in V$ . Desde $\Lambda^n(V)$ es $1$ -se puede definir $$\widetilde{\det}:\text{End}(V)\rightarrow \mathbb{C}$$ al establecer $$ T^*(\omega)=\widetilde{\det}(T)\omega,$$ para cada $\omega\in\Lambda^n(V)$ . Entonces, por la respuesta de @hm2020, está claro que $\widetilde{\det}(AB)=\widetilde{\det}(A)\widetilde{\det}(B)$ (se deduce de la definición de inmediato). Ahora, para cada diagonalizable $A\in\text{End}(V)$ , tomar una base de vectores propios $\{e_i\}_{i=1}^n$ con valores propios $\{\lambda_i\}_{i=1}^n$ et $n$ vectores $v_k=\displaystyle\sum_{i=1}^n v^i_ke_i\in V$ , $k\in\{1,\ldots,n\}$ . De ello se desprende que \begin{equation*}\begin{split}T^*(\omega)(v_1,\ldots,v_n)&=\omega(T(v_1),\ldots,T(v_n))\\&=\omega(\sum v^i_1\lambda_ie_i,\ldots,\sum v^i_n\lambda_ie_i)\\ &=\left(\displaystyle\prod_{i=1}^n\lambda_i\right)(\omega(v_1,\ldots,v_n))\\ &=\det(T)\omega(v_1,\ldots,v_n), \end{split}\end{equation*} donde usamos que $\omega$ es alternativo. De ello se desprende que $\det=\widetilde{\det}$ en el conjunto de matrices diagonalizables, que es denso en $\text{End}(V)$ . Como ambos coinciden en un conjunto denso y son continuos (y el codominio es Hausdorff), tenemos $\det(T)=\widetilde{\det}(T)$ por cada $T\in\text{End}(V)$ . En particular, para cada $A,B\in\text{End}(V)$ , hay que tener en cuenta $$ \det(AB)=\widetilde{\det}(AB)=\widetilde{\det}(A)\widetilde{\det}(B)=\det(A)\det(B).$$

2voto

Pregunta: Prueba de que $det(AB)=det(A)det(B)$ sin expresión explícita para $det$ .

Respuesta: A "prueba de Bourbaki": Se puede utilizar el producto exterior para demostrar la fórmula de dos matrices cualesquiera $A,B$ (del mismo rango) sobre cualquier anillo unital conmutativo:

Ejemplo: Dejemos que $k$ sea cualquier anillo unital conmutativo. Si $\phi$ es la matriz

\begin{align*} \phi= \begin{pmatrix} a & b \\ c & d \end{pmatrix} \end{align*}

y usted ve $\phi:V:=k\{e_1,e_2\} \rightarrow k\{e_1,e_2\}$ como $k$ -se deduce, por la definición del producto exterior, que se obtiene un endomorfismo

$$\wedge^2(\phi): \wedge^2 V \rightarrow \wedge^2 V$$

definido por

$$\wedge^2 \phi(e_1\wedge e_2)=\phi(e_1)\wedge \phi(e_2)= (ae_1+ce_2)\wedge (be_1+de_2)=(ad-bd)e_1 \wedge e_2:= $$

$$det(\phi)e_1 \wedge e_2.$$

Aquí hemos utilizado la propiedad de que $e_2 \wedge e_1=-e_1 \wedge e_2$ en el producto exterior $\wedge^2 V$ . En general, si $\phi$ es la multiplicación con $A:=(a_{ij})$ - un $n\times n$ -con coeficientes en $k$ y $V:=k\{e_1,..,e_n\}$ con $\phi: V \rightarrow V$ se deduce que obtenemos la fórmula

$$\wedge^n \phi(e_1\wedge \cdots \wedge e_n):=\phi(e_1)\wedge \cdots \wedge \phi(e_n)=det(A)e_1\wedge \cdots \wedge e_n.$$

Aquí definimos $det(A)$ como en su hilo.

Principio: Tomando la $n$ El poder exterior de un $n \times n$ -matriz $A$ es una construcción "abstracta" del determinante $det(A)$ .

Ejemplo: Dejemos que $E:=k\{e_1,..,e_n\}$ ser una persona libre $k$ -de rango $n$ y que $\def\End{\operatorname{End}} A,B\in \End_R(E)$ sea $n \times n$ -con coeficientes en $k$ ( $k$ cualquier anillo unital conmutativo). De ello se desprende que $$\wedge^n A, \wedge^n B \in \End_R(\wedge^n E)$$ son $k$ -endomorfismos lineales del rango uno libre $k$ -Módulo $\wedge^n E \cong k e_1\wedge \cdots \wedge e_n:=k e$ con $e:=e_1\wedge \cdots \wedge e_n$ . Tiene la propiedad de que

$$\wedge^n A(ue) = \det(A) ue$$

es la "multiplicación con el elemento $\det(A)\in k$ ".

De ello se desprende que $\wedge^n$ es un functor (véase el siguiente enlace) que

$$ \det(AB) := \wedge^n (A \circ B) = \wedge^n A \circ \wedge^n B := \det(A) \det(B). $$

Con la formulación que utiliza el producto exterior, resulta $\wedge^n(\phi)(u)=det(A)u$ es un "teorema". Aquí definimos (como en su hilo)

$$D1.\text{ }det(A) = \sum_{\sigma \in S_N}\prod_{i=1}^N a_{i, \sigma(i)}.$$

Por lo tanto, si definimos el determinante utilizando el producto exterior, resulta que hay que demostrar la fórmula D1. A la inversa, si definimos el determinante utilizando D1, resulta que hay que demostrar la multiplicatividad del determinante.

Demostrar que $\det(T) = \det(T_{w_{1}})\det(T_{w_{1}})\cdots \det(T_{w_{k}})$ donde $W_{i}$ son $T$ -subespacios invariantes de $V$ - Problemas en el último paso.

2voto

Tim Almond Puntos 1887

Lo esencial

Supongamos que $A,\,B$ actuar en un $n$ -espacio vectorial de dimensiones. Sea $X_A$ denotan la región encerrada por un hipercuboide atravesado por los vectores propios de $A$ . Su hipervolumen es $\int_{X_A}\mathrm d^nx>0$ . Desde $\det A$ es el producto de $A$ de los valores propios, $A$ transforma $X_A$ a una región cuyo hipervolumen puede expresarse de dos maneras: $$\det A\int_{X_A}\mathrm d^nx=\int_{X_A}\mathrm d^nAx.$$ Desde $x\mapsto Ax$ es una transformación lineal de coordenadas, su jacobiano es una constante; por supuesto, esa constante debe ser $\det A$ para que la ecuación anterior funcione. Ahora sabemos que $\mathrm d^nAx=\det A\mathrm d^nx$ funciona en general en el espacio, no sólo en el problema anterior. En efecto, los vectores propios de $A$ son irrelevantes. Así que ahora considera lo que sucede si transformas linealmente dos veces, una con $A$ , una vez con $B$ : $$\det(AB)\mathrm d^nx=\mathrm d^nABx=\det A\mathrm d^nBx=\det A\det B\mathrm d^nx\implies\det(AB)=\det A\det B.$$ En particular, este cálculo no requiere $A,\,B$ sea simultáneamente diagonalizable, porque es simplemente una comparación de $d^nx$ coeficientes en una pequeña región arbitraria del espacio vectorial.

La nota a pie de página

El lector puede, como ejercicio, responder a sus propias objeciones de "¿esto no requiere que los valores propios sean una base completa, que la matriz sea invertible o lo que sea?" con una versión detallada de "al menos hemos demostrado $\det(AB)=\det A\det B$ para un caso lo suficientemente especial como para que, dado que ahora sabemos que los determinantes son jacobianos y, por tanto, de grado $n$ polinomios en $n^2$ entradas de la matriz, el conjunto de soluciones conocidas es demasiado denso en el caso general para que esto último no se cumpla también".

0voto

Physicist137 Puntos 352

Podemos empezar definiendo el determinante como el único mapa alternativo n-lineal tal que $\det(I) = \det(\vec e_1, \cdots, \vec e_n) = 1$ .

En este escenario, ya ha señalado que es fácil de probar: $\det(AB) = \det(A) \det(B)$ . Por lo tanto, asumiré que esto es conocido, en lugar de probarlo también.

Si entiendo bien lo que pregunta, si logramos demostrar que $\displaystyle\det(A) = \prod_{i=1}^n \lambda_i$ el producto de los valores propios, entonces hemos terminado.


Prueba: El determinante de la inversa, es la inversa del determinante. $$ AA^{-1} = I\quad\implies\quad \det(A)\det(A^{-1}) = \det(I) = 1 $$


Prueba: El determinante de una matriz diagonal es el producto de los elementos diagonales. $$ \det(diag(a_1, a_2,\cdots a_n)) = \det(a_1\vec e_1,\cdots,a_n \vec e_n) = a_1a_2\cdots a_n\det(\vec e_1,\cdots,\vec e_n) = a_1a_2\cdots a_n $$


Prueba: El determinante de una matriz triangular, es el producto de los elementos diagonales.

$$\det(a_{11}\vec e_1, \vec v_2, \vec v_3,\cdots\vec v_n) = a_{11}\det(\vec e_1, \vec v_2, \vec v_3,\cdots\vec v_n) = a_{11}\det(\vec v_2', \vec v_3',\cdots\vec v_n')$$

$$ \left|\begin{matrix} a_{11} & a_{12} & \cdots & a_{1n} \\ 0 & a_{22} & \cdots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & a_{nn} \\ \end{matrix}\right| = a_{11} \left|\begin{matrix} a_{22} & \cdots & a_{2n} \\ \vdots & \ddots & \vdots \\ 0 & \cdots & a_{nn} \\ \end{matrix}\right| = a_{11} a_{22} \left|\begin{matrix} a_{33} & \cdots & a_{3n} \\ \vdots & \ddots & \vdots \\ 0 & \cdots & a_{nn} \\ \end{matrix}\right| = a_{11}a_{22}\cdots a_{nn} $$


Prueba: El determinante de una matriz $M$ es el producto de sus valores propios. $$M = JDJ^{-1}\implies\det(M) = \det(J)\det(D)\det(J^{-1}) = \det(D)$$

Si $M$ es diagonalizable, entonces $D = diag(\lambda_1,\cdots\lambda_n)$ y hemos terminado.

Si $M$ no es diagonalizale, entonces, $D$ está en forma Jordan-Canónica, una matriz triangular superior donde los elementos diagonales son los valores propios de $M$ .

Así, para ambos casos: $\det M = \det D = \lambda_1\lambda_2\cdots\lambda_n$ el producto de sus valores propios.

$\square$

0voto

Jagerber48 Puntos 101

Un rápido esbozo de respuesta:

Definimos el volumen de un conjunto $S\subset \mathbb{R}^n$ por

$$ \text{vol}(S) = \int_{\mathbb{R}^n} 1_S $$

Donde $1_S$ es la función indicadora en $S$ . $1_S(\boldsymbol{x}) =1$ para $\boldsymbol{x}\in S$ y 0 en caso contrario. Podemos tomar esto como la integral de Riemann.

Si $T$ es una transformación lineal que definimos

$$ TS = \{T\boldsymbol{x}:\boldsymbol{x} \in S\} $$

Se puede demostrar, de forma no trivial, que

$$ \text{vol}(TS) = \text{vol}(TQ)\text{vol}(S) $$

Donde $Q$ es el cubo unitario. Definir $\text{vol}(T) = \text{vol}(TQ)$ . La idea básica es que $\int 1_S$ se aproxima cubriendo $S$ por cubos, Si actuamos $T$ en $S$ entonces cada uno de los volúmenes de los cubos se escala por $\text{vol}(T)$ por lo que el volumen total de $S$ también lo hace.

Considere el conjunto $S$ y la transformación lineal $A$ et $B$ . $$ \text{vol}(ABS) = \text{vol}(AB)\text{vol}(S) = \text{vol}(A)\text{vol}(BS) =\text{vol}(A)\text{vol}(B)\text{vol}(S) $$ De modo que $$ \text{vol}(AB) = \text{vol}(A)\text{vol}(B) $$ La prueba se basa esencialmente en el hecho de que la transformación $B$ escala el volumen de los cubelets que cubren $S$ por $\text{vol}(B)$ y entonces el volumen de esos cubelets transformados puede ser cubierto por más cubelets transformados por $A$ por $\text{vol}(A)$ . Así que esencialmente nos basamos en la posibilidad de cubrir volúmenes con cubos para demostrar $\text{vol}(AB) = \text{vol}(A)\text{vol}(B)$ .

Podemos entonces proceder de un par de maneras para hacer la conexión con los productos de los valores propios. Usaré la descomposición del valor singular para hacer la conexión con los valores singulares. Primero las matrices unitarias.

Una matriz unitaria $U$ es cualquier matriz que preserva la norma de los vectores:

$$ ||U\boldsymbol{x}|| = ||\boldsymbol{x}|| $$

Las matrices unitarias son invertibles y satisfacen $U^{-1} = U^{\dagger}$ . Definir la bola unitaria en $\mathbb{R}^n$ como $B_n = \{\boldsymbol{x}\in\mathbb{R}^n:\boldsymbol{x}\le 1\}$ . Se puede demostrar que $UB_n = B_n$ . Es decir, las matrices unitarias mapean la bola unitaria a sí misma. Entonces tenemos

$$ \text{vol}(UB_n) = \text{vol}(U)\text{vol}(B_n) = \text{vol}(B_n) $$

Así que $\text{vol}(U) = 1$ . Las transformaciones unitarias no cambian los volúmenes. (esto es de esperar ya que no cambian las normas de los vectores).

Tenemos entonces que cualquier matriz puede ser descompuesta utilizando una descomposición de valores singulares:

$$ A = W\Sigma V^{\dagger} $$

Con $W$ et $V$ unitario y $\Sigma$ diagonal con números no negativos en la diagonal. Entonces tenemos

$$ \text{vol}(A) = \text{vol}(W) \text{vol}(\Sigma) \text{vol}(V^{\dagger}) = \text{vol}(\Sigma) $$

Desde $W$ et $V^{\dagger}$ son unitarios. Se puede demostrar que

$$ \text{vol}(\Sigma) = \prod_{i=1}^n \sigma_i $$

Donde $\sigma_i$ son los valores singulares de $A$ .

Entonces, dejemos que $C = AB$ . Entonces tenemos

$$ \text{vol}(C) = \prod_{i=1}^n \sigma_{C,i} = \text{vol}(A)\text{vol}(B) = \prod_{i=1}^n \sigma_{A,i} \prod_{i=1}^n \sigma_{B, i} $$

Así que he demostrado que el producto de los valores singulares de $AB$ es el producto de los valores singulares de $A$ y el producto de los valores singulares de $B$ .

Todavía no he mostrado la relación deseada para los valores propios. Para ello sería necesario una buena definición del volumen con signo de un conjunto. Para ello necesitamos especificar tanto un conjunto como una base. El conjunto determina $\text{vol}(S)$ y la base determina el signo del volumen firmado. Creo que la definición puede implicar si las matrices unitarias son especiales o no.

Creo que esta respuesta es un buen paso en la dirección correcta. Observaré que no he podido probar $\prod_{i=1}^n \sigma_{AB,i} = \prod_{i=1}^n \sigma_{A,i} \prod_{i=1}^n \sigma_{B, i}$ directamente utilizando sólo la mecánica matricial. Más bien, tuve que incursionar en el análisis donde podía cubrir volúmenes con conjuntos anidados de cubos. Es posible que esta propiedad sea demasiado abstracta para demostrarla sólo con el álgebra de matrices/transformaciones.

Creo que para los valores propios la prueba implicará los hechos de que (1) cualquier matriz compleja puede ser triangularizada, (2) que los valores propios de la matriz son los elementos diagonales de la matriz triangular superior similar y (3) la matriz triangular superior transforma un cubo en un paralelepípedo.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X