17 votos

Fórmulas para el (los de arriba) los coeficientes del polinomio característico de una matriz

El polinomio característico de una matriz a se define como:

$$\chi(A) = \det(xI-A) = \sum_{i=0}^n (-1)^i\cdot \operatorname{tr}^{(i)}(A) \cdot x^{(n-i)}$$

La traza es la suma de los autovalores de una matriz a, tr(A) = tr(1)(A). También es la suma de la diagonal entradas:

$$\operatorname{tr}(A) = \sum_{i=1}^n A_{ii}$$

La suma de los productos de los pares de autovalores es como el siguiente rastro.

Es esta fórmula válida?

$$\operatorname{tr}^{(2)}(A) = \sum_{1 \leq i < j \leq n } A_{ii} A_{jj} - A_{ij} A_{ji}$$

Lo que acerca de esto?

$$\operatorname{tr}^{(2)}(A) = \tfrac12(\operatorname{tr}(A)^2 - \operatorname{tr}(A^2))$$

Existen correspondiente fórmulas para el siguiente, tr(3)?

26voto

Matt Dawdy Puntos 5479

La primera suposición es correcta y se desprende directamente de la permutación de expansión del determinante. La segunda suposición es correcta. La generalización es

$$\text{tr}^{(n)}(A) = \text{tr } \Lambda^n(A) = \frac{1}{n!} \sum_{\pi \in S_n} \text{sgn}(\pi) \text{tr}_{\pi}(A)$$

donde $\Lambda^n(A)$ es la acción de $A$ sobre la potencia exterior $\Lambda^n$, $\text{tr}_n(A) = \text{tr}(A^n)$ y, para una permutación $\pi$ con el tipo de ciclo $(\lambda_1, ... \lambda_k)$, definimos $\text{tr}_{\pi} = \text{tr}_{\lambda_1} ... \text{tr}_{\lambda_k}$.

Por ejemplo, $S_3$ tiene un elemento con el tipo de ciclo $(1, 1, 1)$, tres elementos con el tipo de ciclo $(1, 2)$, y dos elementos con el tipo de ciclo $(3)$. De ello se sigue que

$$\text{tr}^{(3)}(A) = \frac{1}{6} \left( \text{tr}(A)^3 - 3 \text{tr}(A^2) \text{tr}(A) + 2 \text{tr}(A^3) \right).$$

Esta identidad es realmente una identidad simétrica funciones que expresan la primaria simétrica funciones en términos de la potencia simétrica funciones. Puede deducirse de Newton identidades o la exponencial de la fórmula. Usted puede encontrar una lista más completa exposición en Stanley Combinatoria Enumerativa, Vol. II, Capítulo 7.


Algunas exposición está en orden con respecto a qué tiene esto que ver con el exterior poderes. Supongamos que $A$ es diagonalizable con autovalores $\lambda_1, ... \lambda_n$ y vectores propios $e_1, ... e_n$. Luego, por supuesto,$\text{tr}(A) = \sum \lambda_i$. Más generalmente, $\text{tr}^{(k)}(A) = \sum_{i_1 < ... < i_k} \lambda_{i_1} ... \lambda_{i_k}$ $k^{th}$ primaria simétrica polinomio en los valores propios.

Ahora, si $A$ actúa sobre un espacio vectorial $V$, entonces la potencia exterior $\Lambda^k(V)$ hereda una acción de $A$ por functoriality. En base a esto, es particularmente fácil de describir: está dada por

$$\Lambda^k(A)(e_{i_1} \wedge ... \wedge e_{i_k}) = \lambda_{i_1} ... \lambda_{i_k} e_{i_1} \wedge ... \wedge e_{i_k}.$$

Por lo tanto las cuñas de todas las posibles ordenó $k$-tuplas de distintos vectores propios de a $A$ formas un eigenbasis para $\Lambda^k(A)$ actuando en $\Lambda^k(V)$. De ello se desprende que $\text{tr } \Lambda^k(A) = \text{tr}^{(k)}(A)$ para todos los diagonalizable $A$, por lo tanto para todos los $A$ por la continuidad. Por supuesto, usted puede ignorar todo esto, si quieres, pero yo pensaba que iba a mencionarlo porque es un sentido preciso en el que el resto de coeficientes del polinomio característico codificar "los mayores rastros."

8voto

Eric Naslund Puntos 50150

Yo pensé que podría añadir un poco en el fondo de lo que estamos hablando.

Considere la posibilidad de un espacio vectorial $V$ con un operador lineal $A$, y permite elegir una base $e_i$. Deje $A\otimes A$ ser el operador lineal en $V\otimes V$$A\otimes A (e_i\otimes e_j)=Ae_i\otimes Ae_j$. Es fácil ver que $tr(A\otimes A)=tr(A)^2$. Deje $\theta$ ser el automorphism de $V\otimes V$$\theta(e_i\otimes e_j)=e_j\otimes e_i$. Podemos definir a la $Sym^2(V)$, de la simetría del Cuadrado a ser el conjunto de todos los elementos en $V\otimes V$ que son aniquilados por $\theta -Id$, e $Alt^2(V)$, la Alternancia de la Plaza, el conjunto de todos los elementos que son aniquilados por $\theta + Id$. A continuación, $V\otimes V$ se descompone en $Sym^2(V)\oplus Alt^2 (V)$ y lo que usted está buscando para el Seguimiento de $A\otimes A$ cuando restringida a la alternancia de la plaza. (Nota: la restricción a un subespacio invariante da un operador lineal, entonces podemos tomar su Rastro)

¿Por qué es esta Traza la suma de $\lambda_i \lambda_j$? En primer lugar, el conjunto de todos los $e_i\otimes e_j+e_j\otimes e_i$ es una base para $Sym^2(V)$ y el conjunto de todos los $e_i\otimes e_j - e_j\otimes e_i$ es una base para $Alt^2(V)$. Para ver esto, escribir un vector en el subespacio en la base para $V\otimes V$ y considerar el hecho de que es aniquilado por cualquiera de las $\theta +Id$ o $\theta -Id$. La aplicación de estos operadores de da y de la ecuación, y nos permite escribir el vector original en una de las bases que he mencionado anteriormente.
Ahora vamos con el caso donde $A$ es diagonalizable, y el $e_i$ por encima de formar una eigenbasis. Entonces $$A\otimes A (e_i\otimes e_j - e_j\otimes e_i)= \lambda_i\lambda_j(e_i\otimes e_j - e_j\otimes e_i)$$ Hence $\lambda_i\lambda_j$ are exactly the eigenvalues of $\otimes Un$ when restricted to $Alt^2(V)$.

En más generalidad, la suma de los productos de $n$ distintos autovalores será la Traza de $A\otimes \cdots \otimes A$ restringido a la intersección de todos los subespacios aniquilado por $\theta_\pi +Id$ donde $\theta_\pi $ es algunos automorphism dada por una permutación impar. Este subespacio es a veces llamada la Potencia Exterior.

Ahora, ¿cómo podemos realmente calcular una fórmula para estos Rastros basado en el original de la matriz $A$? Que se suministra en Qiaochu la Respuesta.

6voto

Jonik Puntos 7937

Queremos un "simple" fórmula para los coeficientes del polinomio característico en términos de las entradas de la matriz, al menos para la parte superior unos coeficientes.

El polinomio característico puede ser escrito en términos de los valores propios:

$$ \chi(A) = (x-\lambda_1)(x-\lambda_2)\cdots(x-\lambda_n) $$ $$= x^n - (\lambda_1 + \dots + \lambda_n) x^{(n-1)} + (\lambda_1 \lambda_2 + \lambda_1 \lambda_3 + \dots + \lambda_{n-1} \lambda_n) x^{(n-2)} - \dots + (-1)^n \lambda_1 \lambda_2 \cdots \lambda_n $$

Cada coeficiente tr(k) es justo (±) la suma del producto de todos los k-series de los autovalores λyo. Nos gustaría utilizar la traza de escribir esta suma abajo, y así tratamos de encontrar algún loco de la matriz Λ(k)(a) cuyos autovalores son exactamente esos productos!

Para k=1 esto es fácil: sólo tiene que utilizar Una misma. Para k=0, esto es degenerado: sólo uso [1]. Para k=n, hay un truco truco: usar [ det(A) ]. Que es, básicamente, el engaño, pero resulta ser parte de un patrón más amplio.

Para definir B = Λ(k)(A) consideramos que todos los k-subconjuntos de K de {1,2,...,n} y las usan para el índice de las filas y las columnas de B. Para dos k-subconjuntos de K,L definir la (K,L)ésima de B a ser el determinante de la submatriz de Una formada por tomar sólo las filas de K y de las columnas de L. En otras palabras, B es la matriz formada de la k-menores de A.

Por ejemplo, si K={i,j} y L={i,j}, entonces el (K,L)la entrada es UniiUnjj−Unade inyección de tinta deUnaji. La traza de esta matriz es la suma de las (K,K)th entradas como K varía con el k-subconjuntos de {1,2,...,n}. Para k=2, esto es exactamente la primera fórmula:

$$\operatorname{tr}^{(2)}(A) = tr(B) = \sum_{1 \leq i < j \leq n} A_{ii}A_{jj}-A_{ij}A_{ji}$$

Ahora para k=3, la fórmula es un poco horrible, pero principalmente porque la fórmula para un 3×3 el determinante es un poco horrible.

$$\operatorname{tr}^{(3)}(A) = tr(B) = \sum_{1\leq i<j<k \leq n} \left|\begin{array}{rrr}A_{ii} & A_{ij} & A_{ik} \\ A_{ji} & A_{jj} & A_{jk} \\ A_{ki} & A_{kj} & A_{kk} \end{array}\right|$$ $$= \sum_{1 \leq i < j < k \leq n} A_{ii}A_{jj}A_{kk}+A_{ij}A_{jk}A_{ki}+A_{ik}A_{ji}A_{kj}-A_{ik}A_{jj}A_{ki}-A_{ij}A_{ji}A_{kk}-A_{ii}A_{jk}A_{kj}$$


Ahora relacionados con Eric Naslund la respuesta:

El producto de Kronecker de dos matrices, M⊗N es otro de los relacionados con la construcción. Sus filas están indexadas por los pares (i1,i2) de la fila de índices (i1 a partir de M, e i2 de N), sus columnas son indexados por los pares (j1,j2) de índices de columna (j1 de M, y j2 de N) y la ((i1,i2),(j1,j2))th entrada es simplemente el producto de (i1,j1)san entrada de la primera matriz con (i2,j2)nd entrada de la segunda matriz. En otras palabras, se obtiene un bloque de matriz de donde uno la primera matriz decide común multiplicador en el (i1,j1)st bloque, y la segunda matriz simplemente proporciona ese bloque.

Por ejemplo

$$\begin{pmatrix} 0 & 1 \\ -1 & 0 \end{pmatrix} \otimes \begin{pmatrix} 5 & 6 & 7 \\ 8 & 9 & 10 \\ 11 & 12 & 13 \end{pmatrix} = \left(\begin{array}{rrr|rrr}0&0&0&5&6&7\\0&0&0&8&9&10\\0&0&0&11&12&13\\\hline -5 & -6 & -7 & 0&0&0 \\ -8 & -9 & -10 & 0&0&0 \\ -11&-12&-13&0&0&0 \end{array}\right) $$

El producto de Kronecker tiene la interesante característica de que sus autovalores son el producto de los valores propios, uno de la primera matriz y uno de la segunda. En particular, para Un⊗A, uno consigue todos los productos de autovalores, incluso λ1λ1 y ambos λ1λ2 y λ2λ1.

El producto de Kronecker de las dos matrices actos en V⊗W, el espacio vectorial cuya base consiste de pares de vectores de la base, uno de V y uno de W, y donde M actúa en V y N actúa sobre W.

Este espacio vectorial V⊗V es demasiado grande, se da no sólo a los productos de 2-conjuntos de valores propios, pero también cualquier pedido 2-tupla, incluyendo (1,1) y (1,2) y (2,1). Sin embargo, hay un bonito subespacio llamado la potencia exterior que es la intersección de los núcleos de todos aquellos coordinar switchers mencionado por Eric Naslund. La matriz de Una actuación en la k-esima potencia exterior Λ(k)(V) es la matriz de k-los menores de edad, Λ(k)(A).

Los autovalores de dividir muy bien en el segundo tensor de energía: el subespacio generado por x⊗x se denomina simétrica poder Sym2(V) y se hace una copia de cada uno de los productos λiλj para i ≤ j, incluidos todos los de las repeticiones λiλi, por lo que tiene dimensión n(n+1)/2. El espacio se extendió por todos los x⊗y−y⊗x se llama la potencia exterior Alt2(V) y recibe las sobras de los autovalores, una copia de cada uno de los λiλj para i < j, por lo que tiene dimensión n(n-1)/2.

Para mayor tensor de poderes de los autovalores todavía tienen que ser divididas, y uno todavía tiene espacios Symk(V) y Altk(V)=Λ(k)(V), y estos a obtener sus correspondientes autovalores: todos los productos de la no disminución de k-tuplas de valores propios λi⋯λj con 1≤i≤...≤j≤n para Symk(V) y todos los productos de aumento de k-tuplas (o simplemente k-sets) de autovalores para Altk(V). Extrañamente, sin embargo, que no se suman al total de la dimensión, y hay todavía otros subespacios de la izquierda! Estos son los llamados Schur functors y al parecer no tiene una relación demasiado directa a esta pregunta, pero se puede ver que se tiene que existir por que en el tercer tensor de poder de una de las tres dimensiones del espacio (un espacio vectorial de dimensión 3×3×3=27): Sym3 ha (1,1,1), (1,1,2), (1,2,2), (1,2,3), (1,3,3), (2,2,2), (2,2,3), (2,3,3), (3,3,3) para un total de 9. Alt3 sólo (1,2,3) para un total de 1. Donde hice el otro 17 dimensiones ir? Por ejemplo, que consiguió λ3λ2λ1?

4voto

draks ... Puntos 11418

En relación a tu última pregunta en $\text{tr}^{(3)}$, hay una especie de definición recursiva para todos los $\text{tr}^{(k)}$ da por: $$ \text{tr}^{(k)}=-(1/k)\left(\sum_{j=1}^k (-1)^{j} \text{Tr} (^j)\text{tr}^{(k-j)}\right). $$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X