3 votos

El determinante de$T: \mathbb C^2\to \mathbb C^2$ como$\mathbb R$ - operador lineal

Supongamos que el determinante de una $\mathbb C$-transformación lineal $T:\mathbb C^2\to \mathbb C^2$ es $a+bi$. Estoy tratando de demostrar que cuando se $\mathbb C^2$ se identifica con $\mathbb R^4$, el factor determinante de la $\mathbb R$-transformación lineal $T:\mathbb R^4\to \mathbb R^4$ es $a^2+b^2$.

Yo comencé con una de dimensiones inferiores caso: un complejo lineal operador $T': \mathbb C\to \mathbb C$ debe ser la multiplicación por un número complejo $a+bi$, y si puedo escribir la matriz de $T'$ w.r.t. la base $(1,i)$ de % de $\mathbb C$ sobre $\mathbb R$, entonces el determinante de la matriz es $a^2+b^2$.

En las dimensiones superiores caso, el complejo lineal $T$ es la multiplicación por un $2\times 2$ matriz $$A=\begin{bmatrix}x_1+ix_2&z_1+iz_2\\y_1+iy_2&w_1+iw_2\end{bmatrix}.$$ The set $((1,0)^T,(i,0)^T,(0,1)^T,(0,i)^T)$ would be an $\mathbb R$-basis of $\mathbb C^2$. W.r.t. this basis, the matrix of $T$ is $$A'=\begin{bmatrix}x_1&-x_2&z_1&-z_2\\x_2&x_1&z_2&z_1\\y_1&-y_2&w_1&-w_2\\y_2&y_1&w_2&w_1\end{bmatrix}.$$

Se supone que tengo que calcular el determinante de esta última matriz y asegúrese de que es igual a $a^2+b^2$ siempre $\det A=a+bi$? Parece que una gran cantidad de cálculos.

4voto

dan_fulea Puntos 379

Vamos a hacer esto en todos los casos. Considere la posibilidad de una matriz de $Z=A+iB$ forma $n\times n$ con las entradas en $\Bbb C$, aislar, a continuación, $A,B$ a partir de ella, con las entradas en $\Bbb R$. A continuación, $Z$ induce lineal mapa de $\Bbb C^n\to\Bbb C^n$, con lo que se induce mediante el olvidadizo functor "$!$" un mapa, $$ !Z:(\Bbb R^2)^n\a (\Bbb R^2)^n\ , $$ y por lo tanto una matriz, después de la fijación de algunos de identificación de $\Bbb R^{2n}\to\Bbb R^{2n}$, y estamos considerando el factor determinante de este mapa.

El uso de la base generalizadas a partir de la una en el caso de $n=2$ en la publicación de la pregunta, se obtiene la matriz de $$ !Z= \begin{bmatrix} A & -B\\B&A \end{bmatrix} \ , $$ y queremos calcular su determinante. (Con respecto a algunos/cualquier base). Deje $E$ (alemán notación, es aquí mejor que la internacional de la notación $I$,) la unidad de la matriz de la forma $n\times n$. Tenemos las siguientes igualdades entre el bloque de matrices: $$ \begin{aligned} \underbrace{\begin{bmatrix} A & -B\\B&A \end{bmatrix}}_{2\times 2} \underbrace{\begin{bmatrix} E \\ -iE\end{bmatrix}}_{2\times 1} &= \underbrace{\begin{bmatrix} E \\ -iE\end{bmatrix}}_{2\times 1} \underbrace{\begin{bmatrix} A +iB \end{bmatrix}}_{1\1} \ , \\ \underbrace{\begin{bmatrix} A & -B\\B&A \end{bmatrix}}_{2\times 2} \underbrace{\begin{bmatrix} E \\ iE\end{bmatrix}}_{2\times 1} &= \underbrace{\begin{bmatrix} E \\ iE\end{bmatrix}}_{2\times 1} \underbrace{\begin{bmatrix} A -iB \end{bmatrix}}_{1\1} \ , \qquad\text{(conjugado versión)}\\ & \qquad\text{para poner a todos juntos en un bloque de la matriz de cálculo}\\ \underbrace{\begin{bmatrix} A & -B\\B&A \end{bmatrix}}_{2\times 2} \underbrace{\begin{bmatrix} E & E\\ -iE & iE\end{bmatrix}}_{2\times 2} &= \underbrace{\begin{bmatrix} E & E\\ -iE & iE\end{bmatrix}}_{2\times 2} \underbrace{\begin{bmatrix} A +iB & \\ & A -iB\end{bmatrix}}_{2\times 2} \ , \\ &\qquad\text{por lo que tenemos después del cambio de base con $\begin{bmatrix} E & E\\ -iE & iE\end{bmatrix}$ la similitud} \\ \begin{bmatrix} A & -B\\B&A \end{bmatrix} &\sim \begin{bmatrix} A +iB & \\ & A -iB\end{bmatrix} \ ,\qquad\text{para} \\ \det\begin{bmatrix} A & -B\\B&A \end{bmatrix} &= \det\begin{bmatrix} A +iB & \\ & A -iB\end{bmatrix} \\ &=\det(A+iB)\cdot\det(a-iB) \\ &=\det(A+iB)\cdot\overline{\det(A+iB)} \\ &=|\ \det(A+iB)\ |^2 \ . \end{aligned} $$ Nota: Estructuralmente esto significa lo siguiente. Empezamos con $\require{AMScd}$ \begin{CD} !\Bbb C^n @>!Z>> !\Bbb C^n\\ @V \cong V V @VV \cong V\\ \Bbb R^{2n} @>> W> \Bbb R^{2n} \end{CD} donde $W$ es una matriz que escribimos cuando la elección de la matriz del cambio de base para los dos a la misma vertical isomorphisms es fijo. Aquí, $\det W$ no depende de los dos mismos $\cong$ flechas.

Necesitamos $\det W$. La idea es extender una vez más el campo de escalares, de $\Bbb R$ a $\Bbb C$! El determinante sigue siendo. (Esto es similar al hecho de que el determinante de una matriz con entradas en $\Bbb Q$ es la misma, si tenemos en cuenta todas las entradas para estar en $\Bbb R$ o $\Bbb C$...)

Así que formalmente tensor de más de $\Bbb R$ con $\Bbb C$. El functorially inducida por el diagrama es $\require{AMScd}$ \begin{CD} @. !\Bbb C^n\otimes_{\Bbb R}\Bbb C @>!Z\otimes\operatorname{id}>> !\Bbb C^n\otimes_{\Bbb R}\Bbb C\\ @. @V \cong V V @VV \cong V\\ \Bbb C^{2n} @= \Bbb R^{2n}\otimes_{\Bbb R}\Bbb C @>> W> \Bbb R^{2n}\otimes_{\Bbb R}\Bbb C @= \Bbb C^{2n} \end{CD} Pero ahora somos libres para elegir la matriz $W$ utilizando el $\cong$ flechas con las entradas en $\Bbb C$. Y resulta que nos puede hacer la elección que más de $\Bbb C$: $\require{AMScd}$ \begin{CD} !\Bbb C^n\otimes_{\Bbb R}\Bbb C @>!Z\otimes\operatorname{id}>> !\Bbb C^n\otimes_{\Bbb R}\Bbb C\\ @V \cong V V @VV \cong V\\ \Bbb C^{2n} @>> \begin{bmatrix} Z&\\&\bar Z\end{bmatrix}> \Bbb C^{2n} \end{CD} (Nota: esta simple álgebra lineal "cálculos"), pueden ser estructuralmente importante, por ejemplo, cuando se estudian estructuras de Hodge... Esta es la única razón por la categorial de overkill, que estaría fuera de lugar sin esta conexión.)

1voto

Leon Katsnelson Puntos 274

Supongamos $A \in \mathbb{C}^{n \times n}$. Definir $\phi:\mathbb{R}^{2n} \to \mathbb{C}^n $ como $\phi((x_1,y_1,...,x_n,y_n)) = \sum_k (x_k+iy_k) e_k$. Es sencillo ver que $\phi$ es lineal y invertible (la inversa de la real lineal).

Escribir la base $e_1,...,e_{2n} $ de % de $\mathbb{R}^{2n}$ as $u_1,v_1,...,u_n,v_n$.

La correspondiente base real de $\mathbb{C}^n$ es $e_1 = \phi(u_1),ie_1= \phi(v_1),...,e_n=\phi(u_n),ie_n=\phi(v_n)$.

Queremos calcular $\det \tilde{A}$ donde $\tilde{A} = \phi^{-1}\circ A \circ \phi$.

Si $V$ es invertible, nota (algunos de expansión es necesario) que $\det(\phi^{-1}\circ V^{-1}A V \circ \phi) = \det \tilde{A}$, por lo tanto podemos elegir $A$ tener cualquier forma de trajes, en este caso la forma normal de Jordan.

Tenga en cuenta que \begin{eqnarray} \tilde{A}(\alpha u_k+\beta v_k) &=& \phi^{-1}(A (\alpha u_k+i\beta v_k)) \\ &=& \phi^{-1}(\alpha \operatorname{re}(A e_k) - \beta \operatorname{im}(A e_k)+ i [ \alpha \operatorname{im}(A e_k) + \beta \operatorname{re}(A e_k) ] ) \\ &=& \phi^{-1}( \sum_i (\alpha \operatorname{re}[A]_{ik} - \beta \operatorname{im}[A]_{ik}) e_i + (\alpha \operatorname{im}[A]_{ik} + \beta \operatorname{re}[A]_{ik} ) i e_i) \\ &=& \sum_i (\alpha \operatorname{re}[A]_{ik} - \beta \operatorname{im}[A]_{ik}) u_i + (\alpha \operatorname{im}[A]_{ik} + \beta \operatorname{re}[A]_{ik} ) v_i \end{eqnarray} En particular, la representación del mapa desde el subespacio generado por $u_k,v_k$ a las coordenadas de $u_i,v_i$ está dado por el bloque de la matriz ${\bf \tilde A}_{ik} = \begin{bmatrix} \operatorname{re}[A]_{ik} & -\operatorname{im}[A]_{ik} \\ \operatorname{im}[A]_{ik} & \operatorname{re}[A]_{ik} \end{bmatrix}$ Por lo tanto, si $A$ está en forma normal de Jordan, a continuación, $\tilde{A}$ es una triangular superior bloque de la matriz, con cada bloque de un $2 \times 2$ real de la matriz de la forma anterior. Además, la diagonal de bloques son de la forma $\begin{bmatrix} \operatorname{re} \lambda_k & -\operatorname{im} \lambda_k \\ \operatorname{im} \lambda_k & \operatorname{re} \lambda_k \end{bmatrix}$, where $\lambda_k$ are the eigenvalues of $A$.

Por lo tanto $\det {\tilde A} = \prod_k \det \begin{bmatrix} \operatorname{re} \lambda_k & -\operatorname{im} \lambda_k \\ \operatorname{im} \lambda_k & \operatorname{re} \lambda_k \end{bmatrix}= \prod_k |\lambda_k|^2$.

Desde $\det A = \prod_k \lambda_k$, se tiene el resultado deseado.

0voto

hunter Puntos 9476

Aquí es una terrible y perezoso prueba. Si $W$ es un complejo espacio vectorial, escribir $W^!$ para $W$ considerado como un verdadero espacio vectorial.

Dado un elemento $\lambda$ de % de$\mathbb{C}^\times$, elija cualquiera de los $T$ con que elemento como su determinante (claramente un $T$ existe), y considerar el factor determinante de la transformación lineal $T$ que actúa sobre el real subyacente espacio vectorial $V^!$. Me dicen que este nuevo determinante no depende de la elección de $T$, pero sólo en el elemento de la $\lambda$. De hecho, el mapa inducida por $T$ a $\bigwedge^4 V^!$ es el mismo que el mapa inducida por $\lambda$ a $\bigwedge^2 (\bigwedge^2 V)^!$ por debajo de la canónica de isomorfismo entre el último y $\bigwedge^4 V^!$.

De ello se sigue que podemos comprobar la reclamación sobre las transformaciones de la forma $$ \begin{pmatrix} \lambda & 0 \\ 0 & 1\\ \end{pmatrix} $$ para que se reduce al caso de que ya esté marcada.

0voto

Harish Puntos 623

El mapa responsable para el envío de $A \mapsto A'$ es en realidad un grupo de isomorfismo $\boldsymbol{\Psi}: \operatorname{GL}(n, \mathbb{C}) \to \operatorname{GL}(2n, \mathbb{R})$. Por otra parte, $\det$ es un grupo homomorphism de $\operatorname{GL}(2n, \mathbb{R}) \to \mathbb{R}$.

Las matrices elementales son los generadores del grupo lineal general. Deje $E \in \operatorname{GL}(n, \mathbb{C})$ ser cualquier elementales de la matriz.

  • Si $E$ es una columna de conmutación de matriz, es fácil demostrar a $|\det(E)| = \det(\boldsymbol{\Psi}(E)) = 1$.

$$ \begin{bmatrix} 1 & 0 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 0 & 1 \\ \end{bmatrix} \mapsto \begin{bmatrix} 1 & 0 & 0 & 0 & 0 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 & 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 & 1 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 & 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 & 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 1 & 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 & 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 0 & 0 & 0 & 0 & 1 \\ \end{bmatrix} $$

La matriz de la izquierda tiene dos columnas intercambiados, por lo que el factor determinante es $-1$. El de la derecha tiene dos pares de columnas intercambiados, por lo que el factor determinante es $1$.

  • Si $E$ es una columna agregada de la matriz, es fácil demostrar a $|\det(E)| = \det(\boldsymbol{\Psi}(E)) = 1$.

$$ \begin{bmatrix} 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & x+yi & 1 & 0 \\ 0 & 0 & 0 & 1 \\ \end{bmatrix} \mapsto \begin{bmatrix} 1 & 0 & 0 & 0 & 0 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 & 0 & 0 & 0 & 0 \\ 0 & 0 & 1 & 0 & 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 1 & 0 & 0 & 0 & 0 \\ 0 & 0 & x & -y & 1 & 0 & 0 & 0 \\ 0 & 0 & y & x & 0 & 1 & 0 & 0 \\ 0 & 0 & 0 & 0 & 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 0 & 0 & 0 & 0 & 1 \\ \end{bmatrix} $$

La matriz de la derecha trivialmente ha determinante $1$. Ahora, aquí está la carne del problema.

  • Si $E$ es una columna multiplicada matriz con factor de $x+yi$, es fácil demostrar a $|\det(E)| = \det(\boldsymbol{\Psi}(E)) = x^2+y^2$.

$$ \begin{bmatrix} 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & x+yi & 0 \\ 0 & 0 & 0 & 1 \\ \end{bmatrix} \mapsto \begin{bmatrix} 1 & 0 & 0 & 0 & 0 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 & 0 & 0 & 0 & 0 \\ 0 & 0 & 1 & 0 & 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 1 & 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 & x & -y & 0 & 0 \\ 0 & 0 & 0 & 0 & y & x & 0 & 0 \\ 0 & 0 & 0 & 0 & 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 0 & 0 & 0 & 0 & 1 \\ \end{bmatrix} $$

Haciendo el normal determinante de expansión, se hace evidente el determinante de la matriz de la derecha es $x\cdot x - (-y)\cdot y = x^2+y^2$.

Por lo tanto, $\det \circ \boldsymbol{\Psi} = |\det|$ en los generadores de $\operatorname{GL}(n, \mathbb{C})$, que se extiende a todo el espacio.

Por lo tanto, si $M \in \operatorname{GL}(n, \mathbb{C})$ satsifies $\det(M) = a+bi$, luego

$$\det(\boldsymbol{\Psi} M) = |\det M| = a^2 + b^2.$$

0voto

amd Puntos 2503

Asuma wlog que$A$ está en la forma normal de Jordan, específicamente, que es triangular superior:$$A = \begin{bmatrix} \lambda_1 & * \\ 0 & \lambda_2 \end{bmatrix}$$ so that we have $ \ det A = \ lambda_1 \ lambda_2 = a + ib$. Its eigenvalues can, of course, be complex: $ \ lambda_j = x_j + iy_j$, $ x, y \ in \ mathbb R$. The corresponding real matrix is then block upper-triangular: $$A' = \begin{bmatrix} C_1 & * \\ 0 & C_2 \end{bmatrix}$$ with $$C_j = \left[\begin{array}{lr} x_j & -y_j \\ y_j & x_j \end{array}\right], \det C_j = \lambda_j\overline\lambda_j.$$ We then have $$\det A' = \det C_1 \det C_2 = \lambda_1 \overline\lambda_1 \lambda_2 \overline\lambda_2 = (\det A) (\overline{\det A}) = (a+ib)(a-ib) = a^2+b^2.$ $

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X