44 votos

Para demostrar de Cayley-Hamilton teorema, ¿por qué no podemos sustituto $A$$\lambda$$p(\lambda) = \det(\lambda I - A)$?

Cayley Hamilton Teorema establece que si $A$ $n \times n$ de la matriz sobre el campo $F$$p(A) = 0$.

Tomamos nota de que $p(\lambda) = \det(\lambda I - A)$. Por lo tanto, ¿por qué no podemos simplemente sustituto $\lambda$ $A$ directamente y probar de Cayley-Hamilton Teorema diciendo que $p(A) = p(\lambda) = \det(\lambda I - A) = \det(AI - A) = 0$?

83voto

Hay otra manera de ver que la prueba debe ser viciado: mediante la búsqueda de las interesantes consecuencias de esta prueba técnica. Si la prueba será válida, entonces tendríamos también la siguiente generalización:

Defectuoso Lema. Supongamos que $A$ $B$ $n\times n$ matrices. Deje $p_A$ ser el polinomio característico de a $A$. Si $B - A$ es singular, entonces $B$ debe ser un cero de $p_A$.

Defectuosa de la prueba: Hemos $p_A(B) = \det(BI - A) = \det(B - A) = 0$.$$\tag*{$\Cuadro de$}$$

Esto tiene la asombrosa siguiente consecuencia:

Defectuoso Corolario. Cada singular de la matriz es nilpotent.

Defectuosa de la prueba: Vamos a $B$ ser singular de la matriz y deje $A$ ser la matriz cero. Ahora tenemos $p_A(\lambda) = \lambda^n$. Además, por encima tenemos a $p_A(B) = 0$, debido a $B - A$ es singular. Por lo tanto, tenemos $B^n = 0$ y vemos que $B$ es nilpotent.$$\tag*{$\Cuadro de$}$$

En particular, esto demuestra que tenemos $$ \pmatrix{1 & 0 \\ 0 & 0}^2 = \pmatrix{0 & 0 \\ 0 & 0}. $$ Esto viene a demostrar lo equivocado es la prueba!

41voto

user56747 Puntos 1

Si $$A = \begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix}$$ a continuación, $p(\lambda)$ es el determinante de la matriz $$\lambda I - A = \begin{bmatrix} \lambda - 1 & -2 \\ -3 & \lambda - 4 \end{bmatrix}.$$ Ahora puedo conectar en $A$ $\lambda$ y obtener $$\begin{bmatrix} \begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix} - 1 & -2 \\ -3 & \begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix} - 4 \end{bmatrix}$$ pero yo no sé lo que es, y yo ciertamente no saber cómo tomar su determinante.

Así que la razón no se puede conectar a $\det(\lambda I - A)$ es debido a que la expresión sólo tiene sentido cuando se $\lambda$ es un escalar. La definición de $p(\lambda)$ realmente no $\det(\lambda I - A)$, la definición de $p(\lambda)$ es que es el polinomio cuyo valor en cualquier escalar es igual al valor de $\det(\lambda I - A)$.

Por otro lado, me podría definir una función de $P(\lambda) = \det(\lambda - A)$ donde estoy ahora permite conectar matrices del mismo tamaño como $A$, y ciertamente me gustaría conseguir cero si he conectado en $A$. Pero esta es una función a partir de matrices de números, mientras que cuando la conecto matrices en $p(\lambda)$ I obtener como salida de matrices. Por tanto, no tiene sentido decir que estos son iguales, por lo que el hecho de que $P(A) = 0$ no parecen implicar que $p(A) = 0$ sentido $P$ $p$ no son la misma cosa.

13voto

orangeskid Puntos 13528

La pregunta original era: ¿puedo escribir $\det(I A - A) = 0$ en una manera significativa? Sí, si la primera $A$ es considerar como un escalar en el ring $F[A]\subset M_n(F)$, y la segunda como la matriz que representa a $A$. Y la razón por la que esto funciona es, en efecto, que el $A$ es un autovalor de la matriz $A$. Cómo es esto así? Los detalles son los siguientes. Tenga en cuenta que para que funcione necesitamos trabajar con módulos, ya que los coeficientes será un anillo que contiene a $F$.

Vamos a empezar con algunas declaraciones:

Deje $k$ ser un campo, y $(a_{ij})$ $n\times n$ matriz con elementos en $k$$\lambda \in k$, de modo que existe un elemento $v \in k^n$, $v$ distinto de cero, con $(a_{ij}) \cdot v = \lambda \cdot v$. A continuación,$\det( (a_{ij}) - \lambda I ) = 0$. De hecho, la matriz $(a_{ij}) - \lambda I$ no es invertible.

Misma conclusión, si sustituimos $k$ $k$- espacio vectorial $V$, y existe un elemento distinto de cero $v$$V^{ n}$$(a_{ij})\cdot v = \lambda \cdot v$.

De manera más general: $k$ a un anillo conmutativo, $V$ $k$- módulo, $(a_{ij})$ una matriz en la $M_n(k)$ y $\lambda \in k$ $v$ $V^n$ , de modo que $(a_{ij})\cdot v = \lambda \cdot v$. A continuación,$\det((a_{ij}) - \lambda I) \cdot v = 0 \in V^n$. El uso de los adjuntos de la matriz.

Vamos ahora a $A$ $n\times n$ matriz. Deje $k \colon = F[A]\subset M_n(F)$ el álgebra conmutativa generado por $A$. $F^n$ es una $k$-módulo. Vamos $e_1$,$\ldots $, $e_n$ el estándar de la base de $F^n$. Tenemos

$$ (a_{ij}) \cdot \left( \begin{array}{c} e_1 \\ \ldots \\ e_n\end{array} \right ) = \left( \begin{array}{c} A\cdot e_1 \\ \ldots \\ A \cdot e_n\end{array} \right ) $$

La ecuación de arriba dice: $\left( \begin{array}{c} e_1 \\ \ldots \\ e_n\end{array} \right )$ $V^n$ vector propio para el autovalor $A$. De ello se sigue que $$P_A(A) \cdot \left( \begin{array}{c} e_1 \\ \ldots \\ e_n\end{array} \right )= \left( \begin{array}{c} 0 \\ \ldots \\ 0\end{array} \right )$$

y, por tanto,$P_A(A)=0$.

$\bf{Added}$: Tener sentido de $\det(AI - A)$:

Considere el ejemplo de @Jim: $$A= \left[\begin{array}{cc}1&2\\3&4\end{array} \right]$$

$$\begin{bmatrix} \begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix} - 1 & -2 \\ -3 & \begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix} - 4 \end{bmatrix}\ \ \ ?$$

Tenemos que mirar a los escalares como escalar de matrices. Así, obtenemos

$$\begin{bmatrix} \begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix} - \begin{bmatrix} 1 & 0 \\ 0 & 1\end{bmatrix} & \begin{bmatrix} -2 & 0 \\ 0 & -2\end{bmatrix} \\ \begin{bmatrix} -3 & 0 \\ 0 &-3 \end{bmatrix} & \begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix} - \begin{bmatrix} 4 & 0 \\ 0 & 4 \end{bmatrix} \end{bmatrix}$$

Esta $2\times 2$ matriz, con entradas en el álgebra conmutativa $F[A]$, ha determinante $P_A(A)$, una matriz del mismo tamaño que el de $A$. Y siempre la matriz cero.

11voto

Alberto Flores Puntos 49

Recuerde que hay una diferencia entre el $p(x)$ donde $x$ es escalar y $p(A)$ donde $A$ es una matriz, la siguiente cosa que usted debe notar es que si su deducción es cierto, entonces,$p(A)=0$, el lado izquierdo de esta ecuación es una matriz, mientras que el lado derecho es el escalar $0$.

Lo de Cayley-Hamilton teorema que dice es que $A$ satisface su propio polinomio característico. Si usted ha trabajado con un mínimo de polinomios antes, la prueba de esta afirmación es una tarea sencilla (teniendo en cuenta todo el trabajo anterior, obviamente).

9voto

TrialAndError Puntos 25444

En realidad, puedes hacer lo que quieras, pero tienes que ser muy cuidadoso acerca de lo que significa cuando se evalúa un polinomio con la matriz de los coeficientes en una matriz. Por ejemplo, si usted tiene una matriz polinomial con la plaza de la matriz de coeficientes de $A_j$ como $$ p(\lambda) = A_{0}+\lambda A_{1}+\lambda^{2}A_{2}+\cdots+\lambda^{n}A_{n}, $$ entonces, ¿qué quiere decir $p(M)$ donde $M$ es una matriz? A qué te refieres $$ p(M) = A_{0}+MA_{1}+M^{2}A_{2}+\cdots+M^{n}A_{n}, $$ o a qué te refieres $$ p(M)=A_{0}+A_{1}M+A_{2}M^{2}+A_{3}M^{3}+\cdots+A_{n}M^{n}, $$ o ¿quiere decir que la media de estos dos? O ¿te refieres a algo aún más extraño donde algunos poderes de $M$ están a la izquierda de un coeficiente y algunos están a la derecha?

Y por qué esto es importante? Porque si el factor de una matriz polinomial en otros dos, digamos, $$ p(\lambda)=p(\lambda)r(\lambda), $$ entonces puede ocurrir que $p(M)\ne q(M)r(M)$. Mientras que el $\lambda$ conmutan con la matriz de coeficientes, $M$, y sus poderes no necesariamente conmutan con la matriz de coeficientes polinomiales. A ver lo que quiero decir, supongamos que $$ P_{0}+\lambda P_{1}+\cdots+\lambda^{l}P_{l} \\ =(Q_{0}+\lambda Q_{1}+\cdots+\lambda^{m}Q_{m})(R_{0}+\lambda R_{1}+\cdots+\lambda^{n}R_{n}). $$ Esto tiene un significado muy específico: $$ P_{0}=Q_{0}R_{0},\\ P_{1}=Q_{0}R_{1}+Q_{1}R_{1},\\ P_{2}=Q_{0}R_{2}+Q_{1}R_{1}+Q_{2}R_{0},\\ \cdots $$ Pero cuando se sustituye una matriz de $M$$\lambda$, las cosas no funcionan más. En primer lugar, usted tiene que elegir una de izquierda, de derecha, o un mixto de evaluación, y se puede ver que las relaciones anteriores no son necesariamente conserva durante la evaluación del polinomio en una matriz: $$ P_{0}+P_{1}M+P_{2}M^{2}+\cdots+P_{l}M^{l} \\ \ne (Q_{0}+Q_{1}M+Q_{2}M^{2}+\cdots+Q_{m}M^{m})(R_{0}+R_{1}M+R_{2}M^{2}+\cdots R_{n}M^{n}). $$ Por ejemplo, $P_{1}=Q_{0}R_{1}+Q_{1}R_{0}$ no es suficiente para garantizar $$ P_{1}M=Q_{0}R_{1}M+Q_{1}MR_{0}. $$ Así, factorings de la matriz de polinomios no son generalmente conservada en evaluación de polinomios en una matriz de $M$, independientemente de lo que la convención que usted elija para evaluar los polinomios.

Después de tratar de desalentar, por favor, tenga en cuenta que todo funciona en el caso de que usted está considerando. Hay un caso especial en el que todo funciona: Si utiliza la evaluación de la derecha para $p$, $q$ y $r$, y si $Mr(M)=r(M)M$, a continuación, puede mover todos los poderes de la $M$ a la extrema derecha en $q(M)r(M)$ a obtener la misma cosa que usted podría obtener si se va a evaluar $p(M)$ a la derecha. (Algo similar vale para la izquierda evaluación). Y esta condición está satisfecho automáticamente si el derecho de evaluación $r(M)$ $0$ porque $0$ viajes con todo. Por lo tanto, el derecho a la evaluación de $p$ $M$ $0$ si $p=qr$ y si el derecho a la evaluación de la $r$$M$$0$.

Prueba de Cayley-Hamilton Teorema: Entonces, ¿cómo se aplica esto en la Cayley-Hamilton Teorema? Supongamos $A$ $n\times n$ matriz, y deje $A_{i,j}$ ser el determinante de la matriz obtenida por la eliminación de la $i-th$ fila y $j-th$ columna de $A$. La adjunta de la matriz $A_{\mbox{adj}}=[(-1)^{i+j}A_{j,i}]$ (nota intencional de intercambio de $i$$j$) satisface $$ AA_{\mbox{adj}}=A_{\mbox{adj}} = \mbox{det}(A)I, $$ donde $\mbox{det}(A)$ es el escalar determinante de $A$ $I$ es la matriz identidad. En particular, $$ (A-\lambda I)(a-\lambda I)_{\mbox{adj}}=(A-\lambda I)_{\mbox{adj}}(A-\lambda I)= \mbox{det}(A-\lambda I) $$ La matriz $(A-\lambda I)_{\mbox{adj}}$ se compone de cofactores de a $A-\lambda I$ y, como tal, cada entrada en esta matriz es un polinomio en a $\lambda$ de orden entre los $0$$n-1$. Mediante la recopilación de poderes, $$ (A-\lambda I)_{\mbox{adj}}=Q_{0}+\lambda Q_{1}+\cdots+\lambda^{n-1}Q_{n-1}, $$ donde $Q_{j}$ $n\times n$ coeficiente de matrices. Por lo tanto, usted tiene $$ (Q_{0}+Q_{1}\lambda + \cdots + Q_{n-1}\lambda^{n-1})(A-\lambda I)=(-1)^{n}p(\lambda)I, $$ donde $p(\lambda)=\mbox{det}(\lambda I -A)$ es el polinomio característico de a $A$. Esta factorización es preservada por derecho de evaluación en $A$ debido a que la evaluación de las $A-\lambda I$ $\lambda =A$ le da la $0$ matriz que conmuta con todas las de la matriz incluida $A$. Por lo tanto, la derecha y la izquierda - evaluaciones de $p(\lambda)I$ $\lambda=A$ debe dar $0$ (estas evaluaciones son trivialmente el mismo que el de costumbre evaluación de un polinomio escalar por una matriz--los coeficientes puede ser pensado como múltiplos escalares de la identidad matirx.) La conclusión es que el $p(A)=0$, que es el de Cayley-Hamilton Teorema.

Nota: el verdadero quid de la cuestión es que $p(\lambda)I=Q(\lambda)(A-\lambda I)$, de modo que $A$ es una obvia $0$ del polinomio de la derecha y, por lo tanto, también del polinomio característico. Es una forma extraña de factoring que se obtiene cuando todos los de la matriz de coeficientes de $p(\lambda)I$ son múltiplos escalares de la identidad. De modo que la parte difícil es encontrar en la explícita adjunto de la fórmula para la inversa de una matriz, que es una de las varias razones por las determinantes siguen siendo importantes.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X