14 votos

Prueba simple de que si$A^n=I$ luego$\mathrm{tr}(A^{-1})=\overline{\mathrm{tr}(A)}$

Deje $A$ ser lineal en el mapa a partir de un número finito de dimensiones complejas espacio vectorial a sí mismo. Si $A$ tiene orden finito, entonces la traza de su inversa es el conjugado de su traza.

Conozco a dos pruebas de este hecho, pero ambos requieren de álgebra lineal hechos cuyas pruebas son de por sí bastante complicado.

  1. Desde $A^n=I$, los autovalores de a $A$ son raíces de la unidad. Por lo tanto tienen la unidad de la norma, por lo que sus recíprocos son sus conjugados. A continuación, el resultado de la siguiente manera a partir de los siguientes hechos: (a) Los autovalores de a $A^{-1}$ son los recíprocos de los valores propios de a $A$, (b) las dimensiones de los subespacios propios de a $A^{-1}$ son iguales a las dimensiones de los subespacios propios correspondientes de $A$, (c) la traza es igual a la suma de los (generalizada) autovalores. La prueba de (a) es relativamente fácil, pero (b) y (c) parece requerir la existencia de la Forma Normal de Jordan, que requiere un montón de trabajo.

  2. Por Weyl del Unitario Truco, hay un producto interior para que $A$ es unitaria (esta prueba es de por sí una buena cantidad de trabajo). Así, en un ortonormales (que debemos construir con las bacterias Gram-Schmidt procedimiento) la inversa de a $A$ está dado por su conjugado transpose (uno también debe probar esto). Por lo que la traza de la matriz inversa es el conjugado de la traza.

Puesto que la condición $A^n=I$ y la consecuencia de $\mathrm{tr}(A^{-1})=\overline{\mathrm{tr}(A)}$ son de primaria declaraciones, me pregunto si hay un corto a prueba a partir de primeros principios (idealmente sin citar ninguna de grandes Teoremas de álgebra lineal). Puede alguien encontrar uno?

8voto

Pedro Tamaroff Puntos 73748

Abordar la cuestión planteada en los comentarios:

La reclamación. Supongamos que el polinomio mínimo de a $A$ tiene distintas raíces. A continuación, $A$ es diagonalizable, y a la inversa.

Prueba. Escribir $m_A = (X-\lambda_1)\cdots (X-\lambda_t)$ y establezca $m_i = m_A/(X-\lambda_i)$. A continuación, podemos encontrar polinomios $p_i$ tal que $1=\sum_{i=1}^t p_i m_i$. Por otra parte, $v_i = p_i(A)m_i(A)v$ es cero o tal que $(A-\lambda_i)v=0$, por lo que el $v = \sum_{i=1}^tv_i$ es una suma de vectores propios de a $A$. Esta muestra $V$ es una suma de subespacios propios, y la suma es directa puesto que el $\lambda_i$ son distintos. $\blacktriangleleft$

Desde $X^n-1$ annhiliates $A$, $m_A$ tiene distintas raíces, por lo $A$ es diagonalizable. Desde su traza es la suma de sus valores propios, que son raíces de la unidad, la propuesta de argumento en $(1)$ pasa a través de.

6voto

dan_fulea Puntos 379

Dado que la pregunta atrajo rápidamente cuatro votos, voy a tratar de utilizar un mínimo de conocidos de álgebra lineal para obtener el resultado. (Uno de los más comentario. Desde el complejo de la conjugación está involucrado, no es puramente algebraica de la prueba, por ejemplo, uno que utiliza el polinomio/funcional de cálculo en la $A$.)

Empezamos con $A$ una matriz de un endomorfismo de un espacio vectorial $V$ de dimensión finita $\ge 1$$\Bbb C$, de tal manera que para un adecuado naturales $n$ tenemos $$A^n=I\ .$$

Deje $v\ne 0$ ser un vector en $V$. La secuencia de $v, Av, A^2 v,\dots A^nv=v, \dots$ es periódica. Deje $d$ ser su período, $d$ es un divisor de a $n$. Si $d=1$ registramos $v$,$w=v$. Otra cosa, vamos a $\xi$ ser una primitiva $d$-de la raíz de la unidad en la $\Bbb C$, por ejemplo, $\xi=\exp\frac {2\pi\, i}d$ si queremos arreglar las ideas (y dejar de álgebra). Considere los siguientes vectores en $V$: $$ \begin{aligned} w_0 &=v +Av+\dots+A^{d-1}v\ ,\\ w_1 &=v +\xi Av+\dots+(\xi A)^{d-1}v\ ,\\ \ \vdots\ \vdots\ &\qquad \vdots\qquad\vdots\qquad\vdots\qquad\vdots\qquad\vdots\qquad\vdots\qquad\vdots\qquad\\ w_k &=v +(\xi^k A)v+\dots+(\xi^k A)^{d-1}v\ ,\\ \ \vdots\ \vdots\ &\qquad \vdots\qquad\vdots\qquad\vdots\qquad\vdots\qquad\vdots\qquad\vdots\qquad\vdots\qquad\\ w_{d-1} &=v +(\xi^{d-1} A)v+\dots+(\xi^{d-1} A)^{d-1}v\ . \end{aligned} $$ Si al menos uno de estos vectores es $\ne 0$, luego tenemos constancia de ella, y la puso a $w$ a ser una elección entre ellos. Otra cosa?! Los demás tenemos la situación, que es formalmente descrito por la siguiente relación: $$ \underbrace{ \begin{bmatrix} 1 & 1 & 1 & \dots & 1\\ 1 & \xi & \xi^2 &\dots & \xi^{d-1}\\ 1 & \xi^2 & \xi^4 &\dots & \xi^{2(d-1)}\\ \vdots &\vdots &\vdots &\ddots &\vdots\\ 1 & \xi^{d-1} & \xi^{2(d-1)} &\dots & \xi^{(d-1)(d-1)} \end{bmatrix} }_{\text{Vandermonde}(1,\xi,\dots,\xi^{d-1})} % \begin{bmatrix} v \\ Av\\ A^2 v\\\vdots\\A^{d-1}v \end{bmatrix} = \begin{bmatrix} 0 \\ 0\\ 0\\\vdots\\0 \end{bmatrix} \ . $$ La matriz de Vandermonde es invertible, por lo que formalmente se multiplican a partir de la izquierda con su inversa. Para ser exactos, esto se refleja luego en la construcción de las combinaciones lineales en las fórmulas para $w_0,w_1,\dots,w_{d-1}$ a aislar $0=v=Av=\dots$ , lo que da una contradicción. Haciendo esto, hemos construido un $w$ tal que $Aw=\xi^? w$ para una raíz de la unidad de $\xi^?$. Consideramos $V'$, el cociente del espacio o de algún subespacio de $V$ generado por "el otro" vectores que extender el lineal de un sistema independiente $\{w\}$ a una base, y considerar el mismo problema con el inducido / restringidos $A$$V'$.

Inductiva tenemos una base de $V$ que $A$ hechos en diagonal (o triangular superior si la toma de cocientes), y los elementos de la diagonal son $\xi_1,\xi_2,\dots$ todos de ellos las raíces de la unidad.

Entonces la inversa de la matriz tiene la misma forma con la diagonal $\xi_1^{-1},\xi_2^{-1},\dots$ y la igualdad que involucra huellas pueden ser equivalentemente remontan a: $$ \frac 1{\xi_1}+ \frac 1{\xi_2}+ \dots = \overline{\xi_1}+ \overline{\xi_2}+ \dots $$ lo cual es cierto.

3voto

A.G. Puntos 7303

Si el problema es sólo una simple prueba por el hecho de que $$ \text{tr}\,=\sum_{i=1}^n\lambda_i $$ usted puede tratar el siguiente enfoque de FONDO.

  1. En el campo de $\Bbb C$ podemos factorizar $\det(\lambda I-A)=\prod_{i=1}^n(\lambda-\lambda_i)$ donde $\lambda_i$ son todos los autovalores (posiblemente repetido con multiplicidades). El coeficiente de $\lambda^{n-1}$$\color{red}{-\sum_{i=1}^n\lambda_i}$.
  2. Demostrar (por ejemplo, expandiendo el determinante a lo largo de la primera columna + inducción) que los coeficientes de la $\lambda^n$ $\lambda^{n-1}$ que se construya a partir de la diagonal principal producto sólo \begin{align} \det(\lambda I-A)&=\begin{vmatrix}\lambda-a_{11} & -a_{12} & \ldots & -a_{1n}\\-a_{21} & \lambda-a_{22} & \ldots & -a_{2n}\\ \vdots & \vdots & \ddots & \vdots\\ -a_{n1} & -a_{n2} & \ldots & \lambda-a_{nn} \end{vmatrix}=\prod_{i=1}^n(\lambda-a_{ii})+<\text{términos de $\deg\le n-2$}>=\\ &=\lambda^n\color{red}{-\text{tr}\,}\,\lambda^{n-1}+<\text{términos de $\deg\le n-2$}>. \end{align} Es porque para cualquier cofactor $A_{j1}$, $j>1$, en la primera columna de quitar dos $\lambda-a_{ii}$ elementos: uno de la primera columna y uno de la $j$th fila.
  3. Comparar el rojo coeficientes de concluir.

3voto

Joppy Puntos 36

Voy a ir a lo largo de las líneas de su punto (2), ya que creo que hay algunas buenas razones sencillas aquí. Esencialmente, todo el trabajo es mostrar que el $A$ puede ser "unitarised" (hay algún producto interior decisiones $A$ unitario). Una vez que usted sabe que, la traza de la propiedad de la siguiente manera procedentes, básicamente, de una sola línea de trabajo. Siempre tomo el interior de los productos a ser conjugado-lineal en el primer lugar, y $\mathbb{C}$-lineal en la segunda. Deje $A: V \to V$ ser un operador lineal tal que $A^n = I$.

Reclamo: Supongamos que $A$ es unitaria (con respecto a algún producto interior), a continuación,$\mathrm{tr}(A) = \overline{\mathrm{tr}(A^{-1})}$.

Prueba: Supongamos $v_1, \ldots, v_k$ ser un ortonormales. Luego, utilizando la definición de la traza como la suma de la diagonal de elementos en una matriz, tenemos $$\mathrm{tr}(A) = \sum_{i = 1}^k \langle v_i, A v_i \rangle = \sum_{i = 1}^k \langle A^{n-1} v_i, A^nv_i \rangle = \sum_{i = 1}^k \langle A^{-1} v_i, v_i \rangle = \sum_{i=1}^k \overline{\langle v_i, A^{-1} v_i \rangle} = \overline{\mathrm{tr}(A^{-1})}$$ donde la segunda igualdad de los usos que $A$ es unitaria, y en el último segundo se sigue de la propiedad general $\langle v, w \rangle = \overline{\langle w, v \rangle}$ interior de un producto. $\blacksquare $

Por supuesto, todavía tenemos que demostrar que no es un producto interior de decisiones $A$ unitario, pero al menos el argumento anterior evita nada acerca de conjugar-transposición de matrices. No sé si hay una forma más rápida de ver esto, pero para la integridad voy a escribir el promedio de argumento que se encontraría en la teoría de la representación.

Reclamo: No es un producto interior en $V$ tal que $A$ es unitaria.

Prueba: Supongamos $(-, -)$ ser cualquier producto interior en $V$, y definir una nueva forma $$ \langle v, w \rangle := \sum_{i = 0}^{n-1} (A^i v, A^i w) $$ Es claro a partir de la definición y el hecho de que $(-, -)$ es un producto interior que tenemos aditividad, conjugado-linealidad en el primer argumento, $\mathbb{C}$-linealidad en el segundo, y el conjugado de simetría. También tenemos positiva de la certeza, ya que $\langle v, v \rangle = \sum_{i=0}^{n-1} (A^i v, A^i v) \geq (v, v)$. Por lo $\langle -, - \rangle$ es un producto interior, y desde $\langle Av, Aw \rangle = \langle v, w \rangle$, hace $A$ unitario. $\blacksquare $

1voto

Dario Puntos 1

$A$ prueba similar en espíritu a (1) puede ser escrita sin Jordania teoría.

Desde cualquier complejo lineal mapa es triangularizable [1], podemos escribir $A$ $A=QTQ^{-1}$ donde $Q$ es un cambio de base de la matriz y $T$ es triangular. La traza es invariante por lo $trace(A)=trace(T)$$trace(A^{-1})=trace(T^{-1})$. El producto de dos matrices triangulares es triangular y de los elementos en la diagonal son los pares de los productos de los de la matriz original. Se desprende de lo $A^n=\mathbb{I}$ que $T^n= \mathbb{I}$ y de los elementos de la diagonal de a $T$ son raíces de la unidad. Por otra parte $TT^{-1} = \mathbb{I}$ implica que los elementos en la diagonal son los inversos multiplicativos, pero los inversos multiplicativos de la unidad raíces son sus conjugados. Whe entonces ha $$ trace(A^{-1})=trace(T^-1)= \sum_{i=1}^n (\tau^{-1})_{ii}= \sum_{i=1}^n \overline{\tau_{ii}} = \overline{trace(T)} = \overline{trace(A)}$$ como se desee.

[1] Por inducción sobre n.

  • Matrices lineales endomorfismo de $\mathbb{C}^1$ son todos triangular.
  • Para cualquier endomorfismo $f : \mathbb{C}^n \rightarrow \mathbb{C}^n$ desde el charateristic polinomio es factorizable existe al menos un vector propio $v$; para cualquier subespacio $V$ tal que $span(v) \oplus V = \mathbb{C}^n$. Deje $\pi$ ser la proyección en $V$ a lo largo de $span(v)$, $ \pi \circ f _{|V}$ es un endomorfismo de $V \cong \mathbb{C}^{n-1}$ y por inductivo ipothesis es triangularizable. Ahora podemos observar que completar la triangularizing base para $ \pi \circ f _{|V}$ $v$ obtenemos un triangularizing base para $f$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X