31 votos

Interpretación geométrica del determinante de una matriz compleja

Un espacio vectorial complejo $n$-dimensional $V$ se puede pensar como un espacio vectorial real $2n$-dimensional equipado con un mapa $J:V \to V$ con $J^2 = -I$. Los mapas lineales complejos son entonces mapas lineales $V \to V$ que conmutan con $J$. Se puede pensar en $J$ como una rotación infinitesimal, de modo que $\exp(tJ)$ da una familia de rotaciones de este espacio, y los mapas $\mathbb R$-lineales $V \to V$ son complejo-lineales si respetan esta familia.

Desde este punto de vista, u otro punto de vista geométrico, ¿existe una interpretación agradable del determinante complejo $\det_{\mathbb C} L$ de un mapa lineal complejo $L: V \to V$? O, casi la misma pregunta, ¿existe una interpretación geométrica de la única (a escala por números complejos) forma $n$-lineal compleja antisimétrica única $\operatorname{vol}_{\mathbb C}: V \times V \times ... \times V \to \mathbb C$?

La norma es bastante fácil de interpretar. $| \det_{\mathbb C} L |^2 = |\det_{\mathbb R} L|$. Una forma de ver esto es observar la diagonalización de $L$ sobre $\mathbb C. Esto también te da una forma de interpretar el argumento, como la cantidad total de rotación en todos los subespacios invariantes de $L$.

¿Existe una interpretación geométrica de $\det_{\mathbb C} L$, no solo su norma, que no requiera diagonalizar la matriz primero?

Incluso el caso especial cuando $L$ es unitario es de interés.

3voto

Glen Weyl Puntos 764

Una cosa que debo señalar es que una general $L$ sobre $\mathbb C$ solo puede triangularizarse, no necesariamente diagonalizarse. (Piensa en la matriz $2\times2$ con $1$'s en la diagonal, $0$ debajo, y una entrada distinta de cero arriba.) Esto está relacionado con el fenómeno de "espacios propios generalizados", como es relevante para ecuaciones diferenciales ordinarias de coeficientes constantes cuyo "polinomio característico" tiene una raíz repetida en $\mathbb C$, etc. Por lo tanto, en general no se puede descomponer $V$ en una suma directa de subespacios en cada uno de los cuales $L$ actúa por alguna escala.

Dicho esto, si uno intenta demostrar algún tipo de "interpretación" dada por una fórmula "continua", entonces dado que el locus de $L$ diagonalizables dentro del espacio $\text{M}_n(\mathbb{C})$ es denso (simplemente mueve un poco las entradas para que el discriminante del polinomio característico —un polinomio universal desagradable pero específico en los coeficientes en el polinomio característico— no se anule), cualquier interpretación de $L$ diagonalizable debería aplicarse a $L$ general mediante el paso al límite con aproximaciones diagonalizables. Esta es la razón por la que los argumentos de los físicos solo válidos para $L$ diagonalizables terminan siendo válidos para $L$ general (sin que los físicos se den cuenta de que su argumento no se aplicaba en general). En otras palabras, al centrarse en el caso diagonalizable, no se debería perder mucho si se puede encontrar una interpretación genuinamente geométrica que no mencione explícitamente la diagonalización (pero tal vez asuma la invertibilidad de $L$).


La respuesta depende de cómo entiendas la palabra "agradable".

Por ejemplo, veamos el problema desde el punto de vista de la teoría algebraica de números.

Uno puede comenzar con un campo $K$ y preguntarse cómo se comporta el determinante de un endomorfismo $T: V \to V$ de un espacio vectorial $k$-dimensional finito $V$ con respecto a la extensión del campo. En otras palabras, sea $E$ una extensión algebraica finita de $K$, y $V_E$ el producto tensorial de $V$ y $E$ sobre $K$ ("extensión de escalares" o "cambio de base"). Entonces tenemos el endomorfismo correspondiente $T_E: V_E \to V_E$. Pregunta: ¿cómo están relacionados $\det T$ y $\det T_E$?

Tu pregunta fue acerca de $K = \mathbb{R}$ (números reales) y $E = \mathbb{C}$ (números complejos), que es una extensión de grado $2$ de $\mathbb{R}$. Observa que desde el punto de vista presentado anteriormente no hay geometría en el problema—se trata de álgebra lineal. Nuestro campo $K$ puede ser, por ejemplo, el campo finito de $3$ elementos (es decir, $\mathbb{Z}/3\mathbb{Z}$).

En general, $\det T = \text{N}_{E/K} (\det T_E)$, donde $\text{N}_{E/K}$ es el mapa de norma de la extensión de campo. En el caso más simple nos dice que el (cuadrado de la) norma de un número complejo es el determinante de la matriz $2 \times 2$ correspondiente. Observa que la noción de norma es ligeramente diferente a la enseñada en la escuela, porque no involucra la raíz cuadrada. Aún así, la norma del producto es el producto de las normas. Consulta aquí para una nota elemental con la introducción a la noción de la norma y la traza para extensiones de campos y una discusión en MathOverflow.

Este enfoque puramente algebraico, quizás, no parece "agradable" desde cierto punto de vista. Puedes preguntar sobre un enfoque que sea específico para los números complejos y que no se pueda generalizar a otros campos. En particular, puedes observar que cualquier matriz invertible $T$ es un producto de una matriz positiva $P$ (aquella con valores propios positivos) y la matriz unitaria $U$ (es decir, tal que $UU^* = \text{Id}$, donde $U^*$ es el conjugado hermítico), $T = PU$. Consulta aquí para otra discusión sobre ese hecho clásico.

Entonces la pregunta realmente se reduce al significado geométrico agradable de los determinantes de las matrices unitarias. Aquí nuevamente la pregunta es sobre "agradable". Las matrices unitarias forman un grupo de Lie $\text{U}(n)$ de transformaciones de un espacio vectorial complejo $\mathbb{C}^n$ que preservan la norma hermítica estándar (suma de cuadrados de los valores absolutos de las coordenadas). Desde el punto de vista del espacio vectorial real $\mathbb{R}^{2n}$ son rotaciones. Hay un subgrupo $\text{SU}(n)$ de $\text{U}(n)$ que consiste en las matrices unitarias con el determinante igual a $1$. Tiene una topología interesante. Por ejemplo, $\text{SU}(2)$ es naturalmente difeomorfo a la esfera tridimensional. Puedes estudiar la estructura del grupo unitario usando la noción de raíz de un grupo de Lie compacto simple. Luego, hablando en términos generales, cada matriz unitaria $U$ admite una factorización $U = U_1U_2 \ldots U_k$ de algunas matrices "básicas". Cada uno de los factores corresponde (aproximadamente) a una rotación alrededor de un eje (como en el caso $n = 1$, donde $U = U_1 = e^{ix}$). Luego, a partir del conocimiento de $\det U_k$ puedes recuperar $\det U$ (pero todos los determinantes pueden ser iguales a $1$, por lo tanto, la factorización lleva más información).

2voto

Juris Puntos 31

Nota para los moderadores: Intenté editar mi respuesta eliminada, pero luego la gente tendría que votar para restaurar mi publicación. Así que he decidido agregar otra respuesta diferente a la eliminada. ¡Además, es completamente diferente de lo que había escrito hace unos 3 años!

Sea $V = \mathbb{C}^n$, $h(-,-)$ denote el producto interno hermítico estándar en $V$ y denotemos por $\Omega \in \Lambda^n V^*$, normalizado de manera que $$ \Omega(e_1, \ldots, e_n) = 1. $$

Reclamo que estos datos nos permiten definir lo que me gustaría llamar el producto cruzado hermítico de $n - 1$ vectores en $V$. De hecho, sea $v_1, \ldots, v_{n-1} \in V$. Denotemos por $*_h(v_1 \wedge \cdots \wedge v_{n-1}) \in V$ el vector único, digamos $w \in V$ para abreviar, tal que

$$ \Omega(v_1, \ldots, v_{n-1}, v) = h(v, w) $$ para todo $v \in V$ (mi convención es que $h(-,-)$ es antilineal en el segundo argumento).

Tomando $v = w$, obtenemos

$$ \Omega(v_1, \ldots, v_{n-1}, w) = h(w, w) = \lVert w \rVert^2 \geq 0.$$

Así que $w$ es un vector en $V$ que es ortogonal al span de $v_1, \ldots, v_{n-1}$ y tal que el determinante complejo anterior no solo es real, sino también no negativo. Llamaremos a $w$ el producto cruzado hermítico de $v_1, \ldots, v_{n-1}$ (probablemente hay otro nombre para esto en la literatura, estoy seguro).

En términos de coordenadas, $w = (w_1, \ldots, w_n)$, es fácil mostrar que $$ w_i = (-1)^{i+n} \overline{m_{in}(A)} $$

donde $m_{ij}(A)$ es el menor $ij$-ésimo de $A$ y $A$ es la matriz compleja de $n$ por $n-1$ cuya columna $j$-ésima es $v_j$, para $j = 1, \ldots, n-1$.

Si tomamos $v = v_n$ entonces obtenemos $$ \Omega(v_1, \ldots, v_n) = h(v_n, w). $$

Así que podemos ver el determinante complejo de $v_1, \ldots, v_n$ como el producto interno hermítico de, digamos $v_n$, con un vector específico $w$, que no es más que el producto cruzado hermítico de los primeros $n - 1$ vectores ($v_1, \ldots, v_{n-1}$).

¡Nuestra tarea ahora es mucho más fácil! Pensando en la imagen real, proyectamos ortogonalmente $v_n$, ahora considerado como un punto en $\mathbb{R}^{2n}$, ortogonalmente sobre el span real de $w$ y $Jw$. Nota que podemos identificar el span real de $w$ y $Jw$ con $\mathbb{C}$, mapeando $aw + bJw$ en $\lVert w \rVert (a + bi)$.

Creo que el determinante complejo de $v_1, \ldots, v_n$ es en realidad $\lVert w \rVert$ veces la proyección ortogonal de $v_n$ sobre el span real de $w$ y $Jw$, identificados con $\mathbb{C}$. Esto explica en particular la parte real e imaginaria del determinante complejo y, en particular, su fase.

Edición 1: Aquí hay otro enfoque para comprender la fase del determinante complejo, en el caso de matrices complejas de $2$ por $2$, utilizando el mapa de Hopf.

El mapa de Hopf $h: S^3 \to S^2$ tiene la propiedad de que $h(e^{i\theta} \psi) = h(\psi)$, para cualquier $\psi \in S^3 \subset \mathbb{C}^2$. Así que podemos pensar en un punto en $S^3$ simplemente como un triple que consiste en $(p, v, \nu)$, donde $p \in S^2$, $v$ es un vector unitario en $\mathbb{R}^3$ que es ortogonal a $p$ en $\mathbb{R}^3$ pero que se basa en $p$. Así que podemos pensar en $v \in T_p(S^2)$ como un vector unitario que vive en el plano tangente a $S^2$ en $p$. Finalmente, $\nu$ es un punto en la doble cubierta no trivial de $SO(3)$ que yace sobre $(p, v, p \times v) \in SO(3)$.

Dada $\psi_a \in S^3$ para $a = 1, 2$, que asumimos linealmente independientes en $\mathbb{C}^2$ (sobre $\mathbb{C}$) sin pérdida de generalidad, entonces formamos los triples $(p_a, v_a, \nu_a)$ para $a = 1, 2$, correspondientes a $\psi_a$ para $a = 1, 2$, respectivamente.

En esta configuración, ¿cómo podemos recuperar la fase del determinante complejo de la matriz $2$ por $2$ $(\psi_1, \psi_2)$?

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X