11 votos

Prueba de Cayley-Hamilton Teorema en infinidad de campos?

Tratando de probar la de Cayley-Hamilton teorema, se me ocurrió la siguiente prueba:

Si $A$ es una matriz diagonalizable, por lo $A=SDS^{-1}$ $D$ diagonal, entonces, dejando $$P(\lambda)=\det(A-\lambda I)=\sum_{i=0}^n c_i\lambda^i,$$

$$``P(A)" = \sum_{i=0}^n c_i A^i = S\left(\sum_{i=0}^n c_i D^i \right)S^{-1},$$

lo que está claro que es la matriz cero, si $D$ contiene $\lambda_1,\cdots,\lambda_n$ en su diagonal, $D^i$ contiene $\lambda_1^i,\cdots,\lambda_n^i$, y cada uno de los autovalores de satisfacer el polinomio característico. Así, el Cayley-Hamilton teorema es cierto para diagonalizable matrices. Específicamente, es cierto para todas las matrices con $n$ distintos valores propios, o de forma equivalente, todas las matrices, cuya característica polinomios no tienen raíces repetidas.

Sin embargo, los coeficientes del polinomio característico son polinomios en los elementos $a_1,\cdots,a_{n^2}$ de la matriz $A$. También, hay una expresión polinómica de coeficientes de un polinomio que es $0$ si el polinomio tiene una raíz repetida (la resultante). Así, hay algunos polinomio $Q$ de manera tal que la matriz $A$ satisface su polinomio característico o

$$Q(a_1,\cdots,a_{n^2}) = 0.$$

Sin embargo, una matriz entrado en su polinomio característico es en sí misma una matriz cuyos elementos son funciones polinómicas $R_1,\cdots,R_{n^2}$ de los elementos de la matriz. Por lo tanto, para cada una de las $1\leq i\leq n^2$ y valores de $a_1,\cdots,a_{n^2}$, tenemos que

$$Q(a_1,\cdots,a_{n^2}) = 0\ \mathrm{or}\ R_i(a_1,\cdots,a_{n^2}) = 0.$$

Por lo tanto, para todos los $(a_1,\cdots,a_{n^2}) \in \mathbb{R}^{n^2}$, y cada una de las $1\leq i\leq n^2$, tenemos

$$Q(a_1,\cdots,a_{n^2})\cdot R_i(a_1,\cdots,a_{n^2}) = 0.$$

Sin embargo, un polinomio (aquí $QR_i$) que es igual a cero en todas partes debe ser el polinomio cero, y si el producto de dos polinomios es el polinomio cero, uno de los dos debe ser el cero del polinomio.

Es evidente que no $Q$, ya que existen matrices con distintos autovalores. Así, cada una de las $R_i$ debe ser idéntica $0$, y el de Cayley-Hamilton teorema está demostrado.


Sin embargo, esto sólo funciona en infinidad de campos. En campos finitos, las dos declaraciones:

  1. Si un polinomio es $0$ todas partes, es el polinomio cero.

  2. Si dos polinomios de multiplicar para hacer el polinomio cero, uno de ellos debe ser el cero del polinomio.

no son ambas verdaderas (estoy seguro de que el primero no; no estoy seguro acerca de la segunda). Es allí una manera de rigorize la noción de que "Es una afirmación algebraica que es cierto que, por ejemplo, $\mathbb{R}$, por lo que debe ser verdadero en cualquier campo", o hay alguna otra manera de extender esta prueba a lo finito campos? ¿O es que esta prueba sólo en el trabajo (o sentido) en infinidad de campos?

11voto

Matt Dawdy Puntos 5479

Puede aplicar la siguiente idea fuerza: pensar de Cayley-Hamilton como una declaración sobre la "matrix universal," el uno cuyas entradas son indeterminates $x_{ij}$ viven en un polinomio anillo de $\mathbb{Z}[x_{ij}]$. La declaración es que $P(X) = 0$ donde $P$ es un polinomio cuyos coeficientes son polinomios en el $x_{ij}$, por lo que esta declaración en sí es, por $n \times n$ matrices, una colección de $n^2$ polinomio de identidades en $n^2$ variables $\mathbb{Z}$, o, equivalentemente, una colección de $n^2$ polinomios que te gustaría desaparecer. Ahora:

Reclamo: Vamos a $f(y_1, \dots y_k)$ ser un polinomio en cualquier número de variables a lo largo de $\mathbb{Z}$. Los siguientes son equivalentes:

  1. $f$ es idéntica a cero (en el sentido de que todos sus coeficientes son cero).
  2. $f(y_1, \dots y_k) = 0$ $y_i$ cada elemento de cada anillo conmutativo.
  3. $f(y_1, \dots y_k) = 0$ $y_i$ cada elemento de un fijo infinito campo de $K$ de característica cero.

Prueba. Las implicaciones $1 \Rightarrow 2 \Rightarrow 3$ son inmediatas a partir de las definiciones, por lo que queda de demostrar a $3 \Rightarrow 1$. Esto se puede hacer por inducción en $k$: $k = 1$ esto se reduce a la observación de que un polinomio distinto de cero tiene un número finito de raíces, y el paso inductivo se procede a la fijación de algunas de las variables y la variación de los otros. También podemos apelar a la combinatoria Nullstellensatz. $\Box$

Ahora podemos probar de Cayley-Hamilton más de cada anillo conmutativo mediante la prueba sobre cualquier infinito campo de característica cero (tenga en cuenta que nosotros sumamente necesarias para utilizar el hecho de que los polinomios involucrados han entero coeficientes para obtener esta libertad). En particular, se puede trabajar a través de una algebraicamente cerrado de campo, donde la prueba puede ser organizado de la siguiente manera:

  1. Como ya se observó, de Cayley-Hamilton es fácil de demostrar para diagonalizable matrices.
  2. Ahora su segunda observación, en términos geométricos, dice que el diagonalizable las matrices de Zariski denso en todas las matrices, es decir, cualquier polinomio de fuga en el diagonalizable matrices deben desaparecer de forma idéntica. Esto es una consecuencia del hecho de que las matrices con distintos autovalores son Zariski abierto, debido a que su complemento es la matrices tales que el discriminante del polinomio característico (que es un polinomio) se desvanece, y en cualquier irreductible variedad (es decir, el anillo de funciones polinómicas es una parte integral de dominio - puede utilizar esta propiedad fundamentalmente) Zariski abre son Zariski densa (esto es esencialmente lo que probar).

Un montón de otros resultados acerca de las matrices puede ser probado de esta manera. Por ejemplo:

Ejercicio: Vamos a $A, B$ $n \times n$ matrices. A continuación, $AB$ $BA$ tienen el mismo polinomio característico.

(Traté de spoiler tag de esto, pero la sintaxis que he encontrado no funcionan. Alguien sabe qué pasa con eso?)

Prueba. La declaración de que $\det(tI - AB) = \det(tI - BA)$ es una colección de $n$ polinomio de identidades en $2n^2$ variables $a_{ij}, b_{ij}$ (los coeficientes de la "universal par de matrices"), o, equivalentemente, un único polinomio de identidad en $2n^2 + 1$ variables, así como el anterior para demostrar esta afirmación sobre cada anillo conmutativo basta para probarlo durante un número infinito de campo. La declaración es claramente cierto que si, por ejemplo, $A$ es invertible, desde entonces $AB$ $BA$ son conjugado, y ahora usamos el hecho de que invertible las matrices de Zariski abierto (definido por el nonvanishing del determinante), por lo tanto Zariski densa, en todas las matrices. (También es posible evitar el uso de la topología de Zariski por el trabajo de más de $\mathbb{R}$ o $\mathbb{C}$ con la topología Euclidiana y demostrando que es invertible matrices son densos en el sentido habitual aquí).

Aquí es un limpiador algebraicas reformulación de la prueba, trabajando sólo sobre lo universal del anillo de $\mathbb{Z}[a_{ij}, b_{ij}]$. Observar que

$$\det(A) \det(tI - BA) = \det(tA - ABA) = \det(tI - AB) \det(A)$$

y ahora uso el hecho de que $\mathbb{Z}[a_{ij}, b_{ij}]$ es una parte integral de dominio, de modo que, geométricamente, su espectro es un irreductible afín esquema), por lo que podemos cancelar $\det(A)$ desde ambos lados, a pesar del hecho de que no es cierto que el determinante de una matriz siempre se desvanece. $\Box$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X