28 votos

Expresando $-\operatorname{adj}(A)$ como un polinomio en $A$ ?

Supongamos que $A\in R^{n\times n}$ , donde $R$ es un anillo conmutativo. Sea $p_i \in R$ sean los coeficientes del polinomio característico de $A$ : $\operatorname{det}(A-xI) = p_0 + p_1x + \dots + p_n x^n$ .

Estoy buscando una prueba de que $-\operatorname{adj}(A) = p_1 I + p_2 A + \dots + p_n A^{n-1}$ .

En el caso de que $\operatorname{det}(A)$ es una unidad, $A$ es invertible, y la prueba se desprende del teorema de Cayley-Hamilton. Pero ¿qué pasa con el caso en el que $A$ no es invertible?

25voto

Effata Puntos 1514

He aquí una demostración directa siguiendo la línea de la demostración estándar del teorema de Cayley-Hamilton. [ Esto funciona universalmente, es decir, sobre el anillo conmutativo $R=\mathbb{Z}[a_{ij}]$ generado por las entradas de una matriz genérica $A$ . ]

El siguiente lema que combina la suma de Abel y el teorema del resto polinómico de Bezout es inmediato.

Lema Dejemos que $A(\lambda)$ y $B(\lambda)$ sean polinomios matriciales sobre un anillo (no conmutativo) $S.$ Entonces $A(\lambda)B(\lambda)-A(0)B(0)=\lambda q(\lambda)$ para un polinomio $q(\lambda)\in S[\lambda]$ que puede expresarse como

$$q(\lambda)=A(\lambda)\frac{B(\lambda)-B(0)}{\lambda}+\frac{A(\lambda)-A(0)}{\lambda}B(0)=A(\lambda)b(\lambda)+a(\lambda)B(0) \qquad (*)$$

con $a(\lambda),b(\lambda)\in S[\lambda].$

Dejemos que $A(\lambda)=A-\lambda I_n$ y $B(\lambda)=\operatorname{adj} A(\lambda)$ [ visto como elementos de $S[\lambda]$ con $S=M_n(R)$ ], entonces

$$A(\lambda)B(\lambda)=\det A(\lambda)=p_A(\lambda)=p_0+p_1\lambda+\ldots+p_n\lambda^n$$ es el polinomio característico de $A$ y $$A(0)B(0)=p_0 \text{ and } q(\lambda)=p_1+\ldots+p_n\lambda^{n-1}$$

Aplicando $(*),$ obtenemos

$$q(\lambda)=(A-\lambda I)b(\lambda)-\operatorname{adj} A \qquad (**) $$

para algún polinomio matricial $b(\lambda)$ desplazamientos con $A.$ Especialización $\lambda$ a $A$ en $(**),$ concluimos que

$$q(A)=-\operatorname{adj} A\qquad \square$$

15voto

Ian Dickinson Puntos 7956

HINT $\;$ Trabajo " genéricamente ", es decir, que las entradas $\;\rm a_{i,j}$ de $\rm A\;$ sea indetermina y trabajar en el anillo matricial $\rm M = M_n(R)\;$ en $\;\rm R = {\mathbb Z}[a_{i,j}\:]. \;$ Queremos demostrar $\rm B = C$ de $\rm d\: B = d\: C$ para $\rm d = det\: A \in R, \;\; B,C \in M.$ Pero esto equivale a $\rm d\: b_{i,j} = d\: c_{i,j}$ en el dominio $\rm R = {\mathbb Z}[a_{i,j}\:]$ donde $\;\rm d = det\: A \ne 0$ Así que $\rm d$ es cancelable, dando lugar a $\;\rm b_{i,j} = c_{i,j}\;$ por lo que $\rm B = C$ . Esta identidad es válida en todos los anillos conmutativos $\rm S$ ya que, por la universalidad de anillos polinómicos, existe un homomorfismo eval que evalúa $\;\rm a_{i,j}\;$ en cualquier $\;\rm s_{i,j}\in S$ .

Obsérvese que la idea crucial es que $\;\rm b_{i,j}\:, \; c_{i,j}\:,\; d\;$ tienen forma polinómica en $\;\rm a_{i,j}\:$ es decir, son eltos del anillo polinómico $\;\rm R = {\mathbb Z}[a_{i,j}\:] = {\mathbb Z}[a_{1,1},\cdots,a_{n,n}\:]$ que, siendo un dominio disfruta de la anulación de elts $\ne 0$ . Trabajar de forma genérica nos permite anular $\rm d$ y deducir la identidad antes de cualquier evaluación en la que $\rm d\mapsto 0.$

Estas pruebas por medio de identidades polinómicas universales enfatizar el poder de la abstracción de un formal polinomio (vs. polinomio función ). Por desgracia, muchos libros de texto de álgebra no hacen hincapié explícitamente en este punto de vista universal. Como resultado, muchos estudiantes no pueden resistirse fácilmente a las tentaciones topológicas obvias y, en su lugar, obtienen pruebas más peliagudas empleando argumentos de densidad (por ejemplo, véase en otro lugar de este hilo).

Análogamente, el mismo genérico El método de prueba funciona para muchas otras identidades polinómicas, por ejemplo

$\rm\quad\; det(I-AB) = det(I-BA)\;\:$ tomando $\;\rm det\;$ de $\;\;\rm (I-AB)\;A = A\;(I-BA)\;$ y luego cancelar $\;\rm det \:A$

$\rm\quad\quad det(adj \:A) = (det \:A)^{n-1}\quad$ tomando $\;\rm det\;$ de $\;\rm\quad A\;(adj\: A) = (det\: A) \;I\quad\;\;$ y luego cancelar $\;\rm det \:A$

Ahora, para nuestra pièce de résistance de topologie derivamos la derivada polinómica de manera puramente formal.

Para $\rm f(x) \in R[x]$ definir $\rm D f(x) = f_0(x,x)$ donde $\rm f_0(x,y) = \frac{f(x)-f(y)}{x-y}.$ Obsérvese que la existencia y la unicidad de esta derivada se deduce del Teorema del Factor, es decir $\;\rm x-y \; | \; f(x)-f(y)\;$ en $\;\rm R[x,y],\;$ y, a partir de la ley de cancelación $\;\rm (x-y) g = (x-y) h \implies g = h$ para $\rm g,h \in R[x,y].$ Está claro que esto concuerda en los polinomios con la definición de derivada analítica ya que es lineal y toma el mismo valor en los monomios de base $\rm x^n$ . Resistiendo a límites de nuevo, obtenemos la regla del producto de las derivadas a partir de la regla del producto de las diferencias triviales

$$ \rm f(x)g(x) - f(y)g(y)\; = \;(f(x)-f(y)) g(x) + f(y) (g(x)-g(y))$$

$\quad\quad\quad\quad\rm\quad\quad\quad \Longrightarrow \quad\quad\quad\quad\quad\; D(fg)\quad = \quad (Df) \; g \; + \; f \; (Dg) $

cancelando $\rm x-y$ en la primera ecuación, evaluando entonces en $\rm y = x$ , es decir, especializar la diferencia "cociente" de la regla del producto para las diferencias. En este caso, el formal anulación del factor $\;\rm x-y\;$ antes de evaluación en $\;\rm y = x\;$ es precisamente análoga a la formal la anulación de $\;\rm det \:A\;$ en todos los ejemplos anteriores.

12voto

Vetle Puntos 413

Supongo que vale la pena dar una respuesta más completa, y entonces Víctor podrá decirme con más precisión dónde me falta alguna sutileza. Como he dicho, la definición que conozco de la adjunta es que es una matriz cuyas entradas son polinomios en las entradas $a_{ij}$ de $A$ y que satisface $A \text{ adj}(A) = I \det A$ de forma idéntica, por ejemplo, sobre $\mathbb{Z}[a_{ij}]$ . Asumiendo Cayley-Hamilton, sabemos que $p_0 I + p_1 A + ... + p_n A^n = 0$ de forma idéntica y que $p_0 = \det A$ , donde $p_k \in \mathbb{Z}[a_{ij}]$ también.

Especializados ahora en $a_{ij} \in \mathbb{C}$ y suponiendo que $A$ es invertible, concluimos que

$$A \text{ adj}(A) = - p_1 A - p_2 A^2 - ... - p_n A^n$$

implica

$$\text{adj}(A) = - p_1 I - p_2 A - ... - p_n A^{n-1},$$

como tú dices.

Lema: El invertible $n \times n$ Las matrices son densas en el $n \times n$ matrices con la topología de la norma del operador.

Prueba. Dejemos que $A$ sea una variable no invertible $n \times n$ matriz, por lo que $\det A = 0$ . El polinomio $\det(A - xI)$ tiene término principal $(-1)^n x^n$ por lo que no puede ser idénticamente cero, por lo que en cualquier vecindad de $A$ existe $x$ tal que $A - xI$ es invertible.

Pero todo lo que está a la vista es continuo en la topología de la norma del operador, por lo que la conclusión se sigue idénticamente sobre $\mathbb{C}$ y, por tanto, idéntica.

(Debo mencionar que éste ni siquiera es mi método preferido para demostrar las identidades matriciales. Siempre que es posible, intento demostrarlas combinatoriamente interpretando $A$ como la matriz de adyacencia de algún grafo. Por ejemplo -¡hora de la confesión! - así es como pienso en Cayley-Hamilton. Esto está lejos de ser la forma más limpia o más corta de hacer las cosas, pero mi intuición combinatoria es mejor que mi intuición algebraica y creo que es bueno tener tantas pruebas diferentes de lo básico como sea posible).

9voto

kevtrout Puntos 2774

Como geómetra aritmético, no tengo más remedio que utilizar los métodos topológicos de la mano de los algebraicos. Es muy probable que la necesidad haya sido la madre de la estética en este caso, pero encuentro que las pruebas de hechos del álgebra lineal que utilizan argumentos de genericidad son hermosas y perspicaces.

Qiaochu ha mostrado cómo responder a la pregunta del PO utilizando estos métodos [utiliza la topología "analítica" -es decir, la habitual- en $\mathbb{C}^n$ pero lo suficientemente cerca] asumiendo el teorema de Cayley-Hamilton. Aquí quiero mostrar que también se puede demostrar el teorema de Cayley-Hamilton rápidamente por estos métodos.

Paso 1: Para demostrar que C-H es una identidad polinómica, basta con demostrar que se cumple para todo $n \times n$ matrices sobre $\mathbb{C}$ .

Prueba: En efecto, decir que C-H se mantiene como identidad polinómica significa que se mantiene para la matriz genérica $A = \{a_{ij}\}_{1 \leq i,j \leq n}$ cuyas entradas son indeterminadas independientes sobre el anillo $R = \mathbb{Z}[a_{ij}]$ . Pero este anillo se incrusta en $\mathbb{C}$ -- de hecho en cualquier campo de característica cero y grado de trascendencia absoluto infinito -- y dos polinomios con coeficientes en un dominio $R$ son iguales si son iguales en algún dominio de extensión $S$ .

Paso 2: C-H es fácil de demostrar para matrices complejas $A$ con $n$ valores propios distintos $\lambda_1,\ldots,\lambda_n$ .

Prueba: El polinomio característico evaluado en $A$ es $P(A) = \prod_{i=1}^n(A-\lambda_i I_n)$ . Sea $e_1,\ldots,e_n$ sea una base de $\mathbb{C}^n$ de manera que cada $e_i$ es un vector propio de $A$ con valor propio $\lambda_i$ . Entonces, utilizando el hecho de que las matrices $A - \lambda_i I_n$ todos se desplazan entre sí tenemos eso para todos $e_i$ ,

$P(A)e_i = \left(\prod_{j \neq i} (A-\lambda_j I_n)\right) (A-\lambda_i I_n) e_i = 0.$

Desde $P(A)$ mata a cada elemento de la base, es de hecho idénticamente cero.

Paso 3: El conjunto de matrices complejas con $n$ valores propios distintos es un subconjunto abierto de Zariski de $\mathbb{C}^n$ : en efecto, éste es el lugar de no evanescencia del discriminante del polinomio característico. Como podemos escribir matrices diagonales con entradas distintas, es ciertamente no vacío. Por tanto, es denso de Zariski, y cualquier identidad polinómica que se mantenga en un subconjunto denso de Zariski de $\mathbb{C}^{n^2}$ tiene en todos los $\mathbb{C}^{n^2}$ .

6voto

Blake Puntos 150

Esta fórmula se puede obtener durante una demostración del teorema de Cayley-Hamilton, como se indica en su Artículo de Wikipedia . La esencia del argumento es que la división euclidiana por un polinomio mónico (a la izquierda, digamos), puede realizarse en el anillo de polinomios sobre cualquier anillo (unitario), no necesariamente conmutativo; esto se deduce directamente de la consideración de lo que hace la división euclidiana, o por un simple argumento inductivo.

Como me importa que los polinomios sean mónicos, definiré el polinomio característico de una matriz $A$ para ser $\chi_A=\det(I_nX-A)=\sum_{i=0}^nc_iX^i$ donde $c_n=1$ (y $c_0=\det(-A)$ ), por lo que el resultado a demostrar pasa a ser $\mathrm{adj}(-A)=c_1I_n+c_2A+\cdots+c_{n-1}A^{n-2}+A^{n-1}=\sum_{i=1}^nc_iA^{i-1}$

Consideremos el anillo no conmutativo $M=\mathrm{Mat}_n(R)$ y utilizando la división euclidiana en $M[X]$ (en la que $R[X]$ se incrusta mediante el mapeo $r$ a $rI_n$ ) dividir $\chi_A$ a la izquierda por $X-A$ . Como sabemos que $(X-A)\mathrm{adj}(X-A)=\det(X-A)=\chi_A$ la unicidad del cociente y del resto en la división euclidiana implica que tendrán que ser $\mathrm{adj}(X-A)$ y $0$ respectivamente. Escribiendo el cociente $\mathrm{adj}(X-A)=\sum_{i=0}^{n-1}B_iX^i$ sus coeficientes $B_i\in M$ se determinan en la división sucesivamente como $B_{n-1}=c_n=1$ y $B_{i-1}=c_i+AB_i$ para $i=n-1,\ldots,1$ (estos son sólo los valores intermedios mientras se calcula la evaluación de $\chi_A$ en $~X=A$ utilizando el esquema de Horner), que se amplía a $B_{i-1}=c_iA^0+c_{i+1}A^1+\cdots+c_nA^{n-i}$ . En particular, el coeficiente constante del cociente $\mathrm{adj}(X-A)$ es igual a $B_0=\sum_{i=1}^nc_iA^{i-1}$ pero esto también es $\mathrm{adj}(-A)$ (sustituyendo $X=0$ ).

Para recuperar el teorema de Cayley-Hamilton a partir de la fórmula encontrada, multiplique a la izquierda o a la derecha por $A$ y mueve el lado izquierdo hacia la derecha.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X