Resumen
Estoy buscando una aproximación al álgebra lineal en la línea de ¡Abajo el determinante! por Sheldon Axler. Estoy siguiendo su libro de texto Álgebra lineal bien hecha . En estas referencias el autor adopta un enfoque del álgebra lineal que evita en lo posible el uso de la expresión explícita de los determinantes. La motivación para ello es que las expresiones explícitas para el determinante, aunque son útiles para calcular cosas, son difíciles de intuir. Sin embargo, esta pregunta no trata de debatir los méritos de este enfoque.
Utilizo la terminología de Axler que es un poco diferente a la que estoy acostumbrado. Lo que él llama isometría yo lo llamaría unitario y lo que él llama positivo yo lo llamaría semidefinido positivo.
Motivación adicional
Me gustaría proporcionar más información sobre el motivo por el que solicito esta prueba. Sé que en entornos muy generales (geometría diferencial, por ejemplo) es posible realizar integrales en colectores utilizando diferenciales $N$ -formas de $\Lambda^N$ . La característica esencial de estos objetos es que son alternativos y multilineales. Quiero entender por qué existe una relación profunda entre las formas alternas y multilineales. La sugerencia es que esta relación se produce porque los volúmenes pueden caracterizarse, fundamentalmente, como algo que se transforma de forma alterna y multilineal.
Por desgracia, no me parece una afirmación convincente sobre los volúmenes. Vea mi búsqueda aquí. Ayuda para demostrar que el volumen con signo del n-paralelepípedo es multilineal . Más bien, el hecho de que los volúmenes se transformen de forma multilineal y alterna es realmente difícil de demostrar directamente y parece ser un poco particular a las propiedades de los paralelepípedos específicamente. Y luego, por supuesto, podemos embaldosar $\mathbb{R}^N$ utilizando paralelepípedos, por lo que el resultado general es el siguiente.
Lo que me parece más intuitivo es caracterizar "fundamentalmente" el volumen con signo como algo que escala linealmente con las escalas de los ejes de coordenadas (multiplicación por una matriz diagonal) y que permanece igual o cambia de signo bajo una rotación propia o impropia (multiplicación por una matriz unitaria con producto positivo o negativo de valores propios).
Estas dos propiedades PARECEN poder demostrarse sólo mirando los valores propios de las matrices de transformación, pero una prueba no parece evidente sin basarse de alguna manera en las funciones multilineales/alternas. Esto implicaría que la caracterización multilineal/alternativa de los volúmenes es de alguna manera más fundamental que la que yo propongo.
Esto me resulta muy sorprendente, sobre todo teniendo en cuenta lo difícil que es demostrarlo directamente para los volúmenes... De ahí mi búsqueda de una prueba sobre el producto de valores propios de un producto de matrices.
Configuración del problema
Mi pregunta:
Cada complejo $N\times N$ matriz $A$ tiene $N$ valores propios $\lambda_1, \ldots, \lambda_N$ . Algunos de estos valores propios pueden estar repetidos y otros pueden ser iguales a cero. Defina el determinante de $A$ como
$$ \text{det}(A) = \prod_{i=1}^N\lambda_i $$
Es bien sabido que para dos $N\times N$ matrices $A$ et $B$ que
$$ \text{det}(AB) = \text{det}(A)\text{det}(B) $$
Sin embargo, esta prueba se basa típicamente (véase más adelante) en el conocimiento de una expresión explícita para $\text{det}$ en términos de los elementos de la matriz de $A$ et $B$ como
$$ \text{det}(A) = \sum_{\sigma \in S_N}\prod_{i=1}^N A_{i, \sigma(i)} = \sum_{i_1, \ldots, i_N=1}^N \epsilon_{i_1\ldots i_N} \prod_{j=1}^N A_{j, i_j}. $$
Tengo curiosidad por saber si existe una prueba de $\text{det}(AB) = \text{det}(A)\text{det}(B)$ utilizando la definición que he dado anteriormente y que no se basa en estas sumas alternas explícitas, por ejemplo, en la línea del enfoque de Axler.
Un intento de solución
En su libro de texto, Axler demuestra algunos teoremas clave, todos ellos sin utilizar las expresiones alternas anteriores. Estos incluyen hechos sobre los valores propios de las matrices y varios teoeremas espectrales y de descomposición del valor singular. Creo que la descomposición polar puede ser útil aquí. Algo así como:
\begin{align} A =& S_A P_A\\ B =& P_B S_B\\ AB =& S_A P_A P_B S_B \end{align}
Con $S_{A,B}$ isometrías (unitarias) y $P_A$ et $P_B$ son matrices positivas (semidefinidas positivas).
Con dos hechos la prueba estaría completa: Si pudiéramos demostrar $\text{det}(PS) = \text{det}(PS) = \text{det}(S)\text{det}(P)$ para la isometría $S$ y positivo $P$ (o arbitrario $P$ ) entonces tendríamos
$$ \text{det}(AB) = \text{det}(S_A)\text{det}(S_B)\text{det}(P_A P_B) $$
Si pudiéramos entonces mostrar también $\text{det}(P_A P_B) = \text{det}(P_A)\text{det}(P_B)$ entonces la prueba estaría completa.
Otros intentos de solución
Otras cosas útiles que he aprendido: Está claro que multiplicar una matriz por una matriz unitaria no cambia los valores singulares. Además, si pudiera demostrar que el producto de los valores propios o singulares de $C = \Sigma_1 U \Sigma_2$ con $U$ unitario y $\Sigma_{1, 2}$ diagonal y positiva, es igual al producto de los valores propios/singulares de $\Sigma_1$ et $\Sigma_2$ Sería capaz de demostrar que multiplicando $A$ et $B$ resultados arbitrarios al multiplicar el producto de sus valores singulares. El $\text{det(A)}$ podría entonces definirse alternativamente como algo así como $A = U \Sigma V^*$ et $\text{det}(A)$ es igual al producto de los elementos diagonales de $\Sigma$ por el producto de los valores propios de $U$ et $V$ .
Por último, otro enfoque. Todos mis enfoques hasta ahora se han basado básicamente en las propiedades de las matrices y en la manipulación de las mismas. Puede ser que este enfoque sea erróneo. Los valores propios están relacionados con el polinomio característico de una matriz (que Axler define sin necesidad del determinante) y el teorema fundamental del álgebra. Quizás haya que volver a este dominio algebraico para obtener la respuesta a lo que busco. Soy bastante inexperto en ese dominio, así que cualquier idea sería de gran ayuda.
Preguntas explícitas
Mis preguntas son:
- ¿Puede alguien proporcionar una prueba para $\text{det}(PS)=\text{det}(SP) = \text{det}(S)\text{det}(P)$ para la isometría $S$ y positivo (o arbitrario) $P$ ?
- ¿Puede alguien proporcionar una prueba para $\text{det}(P_A P_B) = \text{det}(P_A)\text{det}(P_B)$ para que sea positivo $P_A$ et $P_B$ ?
- Dejemos que $C = \Sigma_1 U \Sigma_2$ con $\Sigma_{1, 2}$ diagonal (con entradas positivas distintas de cero) y $U$ unitario. Sea $\Pi(A)$ es igual al producto de los valores singulares de $A$ . Sabiendo que $\Pi(UA)=\Pi(A)$ para los unitarios $U$ ¿Puede alguien proporcionar una prueba de que $\Pi(C) = \Pi(\Sigma_1)\Pi(\Sigma_2)$ ?
- Otra posibilidad es que haya un enfoque totalmente diferente para demostrar esto sin la fórmula de cálculo alternativo.
- Si alguien tiene razones para creer que lo que pido es imposible por alguna razón agradecería comentarios o respuestas que expliquen por qué podría ser imposible.
Pruebas que implican expresiones alternas explícitas para $\text{det}$
-
Este sitio web se basa en el hecho de que $\text{det}(A)\text{det}(B)$ al ampliar $A$ et $B$ en matrices elementales. A continuación, demuestra que al multiplicar una matriz por una matriz elemental se multiplica el determinante por un valor conocido. El resultado es el siguiente. La cuestión es que el efecto de la multiplicación por una matriz elemental en el determinante se demuestra utilizando una definición o propiedad de expansión por menores del determinante. https://sharmaeklavya2.github.io/theoremdep/nodes/linear-algebra/matrices/determinants/elementary-rowop.html
-
Casi todas las pruebas de este MSE utilizan una u otra fórmula alternativa Cómo demostrar que $\det(AB) =\det(A) \det(B)$ ?
-
Wikipedia et Hubbard y Hubbard dan una buena prueba que (1) utiliza el conocimiento de que el determinante es la única alternancia multilineal normalizada $N$ -en las columnas de una matriz muestra que la función $D(A) = \text{det}(AB)$ es alternativo y multilineal, por lo que $D(A)$ debe ser un múltiplo de $\text{det}(A)$ . También tenemos $D(I) = \text{det}(B)$ así que $D(A) =\text{det}(AB) = \text{det}(A)\text{det}(B)$ . Esta prueba es buena porque no depende de la expresión explícita de la alternancia para $\text{det}$ pero tiene el problema de que no sé cómo demostrar que el producto de los valores propios satisface la propiedad multilineal alternante sin proporcionar la expresión alternante explícita para $\text{det}$ . Otros ejemplos de este tipo de pruebas se pueden encontrar en MSE como Determinante del producto de la matriz
-
Aquí hay una prueba que utiliza una identidad en el símbolo levi-civita: demostrar que el determinante de un producto de matrices es el producto de sus determinantes en notación de sufijo / índice
Información reciente
Después de pensar más en este problema creo que me estoy convenciendo de que lo que pido no es posible, pero me estoy dando cuenta de una forma más convincente de pensar en la cosa. Hay tres conceptos relacionados. (1) Cómo una transformación lineal escala los volúmenes, $\text{svol}$ et $\text{vol}$ (2) El producto de los valores propios o singulares de una transformación lineal, $\Pi_e$ et $\Pi_s$ y (3) la forma multilineal alterna, $\text{det}$ et $|\text{det}|$ .
Más arriba, he esperado dar un tratamiento en el que $\Pi_e$ es de alguna manera la propiedad más fundamental y para derivar todas las propiedades sobre $\text{svol}$ et $\text{det}$ a partir de las propiedades de los valores propios. Como he dicho más arriba, empieza a parecer que esto puede no ser posible.
En cambio, creo que un enfoque más satisfactorio puede ser el siguiente. Tomar $\text{vol}$ o $\text{svol}$ ser fundamental y trabajar a partir de ahí. La idea interesante que he tenido es que hay dos maneras de desglosar las propiedades de $\text{vol}$ o bajo transformaciones lineales.
En la primera aproximación, podemos ver que (a1) al escalar por una matriz diagonal $\text{vol}$ escala por el valor absoluto del producto de las entradas y $\text{svol}$ escala por el producto, (b1) al multiplicar por una reflexión en un solo eje que $\text{vol}$ no se modifica, mientras que $\text{svol}$ cambia de signo, y (c1) ambos $\text{vol}$ et $\text{svol}$ no se modifican con las rotaciones adecuadas.
En la segunda aproximación tenemos que (a2) al escalar por una matriz diagonal $\text{vol}$ escala por el valor absoluto del producto de las entradas y $\text{svol}$ escala por el producto, (b2) cuando se intercambian dos ejes $\text{vol}$ no se modifica, mientras que $\text{svol}$ invierte el signo y (c2) $\text{vol}$ et $\text{svol}$ no se modifican con las operaciones de cizallamiento.
El primer enfoque se presta a una descomposición polar de la forma
$$ A = RUP $$
Donde $R$ es la identidad o un reflejo a través de un solo eje, $U$ es una matriz ortogonal especial, y $P$ es positivo-semidefinido. Esta descomposición se presta a mostrar la relación entre las propiedades de escala de volumen de una transformación y el producto de valores singulares o valores propios.
El segundo enfoque se presta a una descomposición de la forma
$$ A = E_1\ldots E_k $$
Donde $E_i$ son matrices elementales. Esta descomposición se presta a mostrar la relación entre las propiedades de transformación de volumen de una transformación y la forma multilineal alterna.
Se puede ver que las propiedades (a1), (a2) son iguales, (b1) y (b2) son esencialmente iguales, y que (c1) y (c2) son similares y equivalentes cuando se consideran a la luz de las otras propiedades. Así pues, el primer enfoque se centra en las rotaciones, mientras que el segundo se centra en las cizallas.
Considerando por el momento las matrices definidas positivas, creo que una forma de pensar en la relación entre el producto de los valores propios, $\Pi_e$ y la forma multilineal alterna $\text{det}$ es que son equivalentes porque (1) $\Pi_e$ está relacionado con las rotaciones y el estiramiento de los ejes de los volúmenes y (2) $\text{det}$ está relacionado con las cizallas y el estiramiento de los ejes de los volúmenes.
Sigue siendo un poco insatisfactorio que tengamos que hacer esta relación con volúmenes y tijeras para explicar por qué $\Pi_e(AB) = \Pi_e(A) \Pi_e(B)$ pero una de las razones que podría ver para ello es que $\Pi_e$ es un objeto muy complicado algebraicamente. La existencia de los valores propios sólo está garantizada por el teorema fundamental del álgebra, que no es constructivo, y la triangularización de las matrices complejas también parece un poco abstracta. Sabemos cómo trabajar con una transformación y un único valor propio o vector propio, pero no hay mucha maquinaria para trabajar con TODOS los valores propios a la vez, es decir $\Pi_e$ . Más bien, podemos utilizar el hecho de que el producto de los valores propios estira los volúmenes, y el hecho de que los volúmenes firmados son alternativos y multilineales, para llegar a una expresión explícita para el producto de los valores propios que nos permite derivar propiedades que no podríamos obtener de otro modo, como por ejemplo $\Pi_e(AB) = \Pi_e(A)\Pi_e(B)$ .
Tengo curiosidad por conocer la opinión de los demás. Puede que plantee (y responda quizás) una nueva pregunta relacionada con este último punto. Tengo algunas pruebas parciales y espero tener una explicación completa, ojalá intuitivamente satisfactoria, un poco más tarde, pero no estoy seguro.