9 votos

Una matriz cuadrada tiene el mismo polinomio mínimo sobre su campo base como lo ha hecho sobre un campo de extensión

Creo que he escuchado que el siguiente es verdadero antes, pero no sé cómo demostrarlo:

Deje $A$ ser una matriz con entradas real. Entonces, el polinomio mínimo de a $A$ $\mathbb{C}$ es el mismo que el polinomio mínimo de a$A$$\mathbb{R}$.

¿Es esto cierto? Alguien podría estar dispuesto a proporcionar una prueba?


Intento de prueba:

Deje $M(t)$ ser el polinomio mínimo sobre los reales, y $P(t)$ sobre los números complejos. Podemos ver el $M$ como un polinomio sobre $\Bbb C$, en cuyo caso se cumplirá $M(A)=0$, y por lo tanto $P(t)$ divide. Además, podemos ver el $P(t)$ como la suma de dos polinomios: $R(t)+iK(t)$. Conectar $A$ tenemos que $R(A)+iK(A)=P(A)=0$, pero esto obliga a que tanto $R(A)=0$$K(A)=0$. En ambos $K$ $R$ real polinomios, tenemos que $M(t)$ divide a ambos, y por lo tanto se divide $R+iK=P$.

Ahora $M$ $P$ son monic polinomios, y se divide cada uno de los otros, por lo tanto,$M=P$.

Hace esta mirada sea correcta?


Más generalmente, se puede probar el siguiente

Deje $A$ ser cualquier matriz cuadrada con entradas en un campo$~K$, y deje $F$ ser una extensión del campo de$~K$. Entonces, el polinomio mínimo de a$~A$$~F$ es el mismo que el polinomio mínimo de a$A$$~K$.

12voto

Lorin Hochstein Puntos 11816

Escrito antes mientras que el OP fue la adición de su propia prueba, que es esencialmente el mismo como lo que sigue.

Deje $\mu_{\mathbb{R}}(x)$ ser el polinomio mínimo de a$A$$\mathbb{R}$, y deje $\mu_{\mathbb{C}}(x)$ ser el polinomio mínimo de a$A$$\mathbb{C}$.

Desde $\mu_{\mathbb{R}}(x)\in\mathbb{C}[x]$$\mu_{\mathbb{R}}(A) = \mathbf{0}$, luego se sigue por la definición de un mínimo de polinomio que $\mu_{\mathbb{C}}(x)$ divide $\mu_{\mathbb{R}}(x)$.

Yo reclamo que $\mu_{\mathbb{C}}[x]$ tiene coeficientes reales. De hecho, escribir $$\mu_{\mathbb{C}}(x) = x^m + (a_{m-1}+ib_{m-1})x^{m-1}+\cdots + (a_0+ib_0),$$ con $a_j,b_j\in\mathbb{R}$. Desde $A$ es una verdadera matriz, todas las entradas de $A^j$ es real, así que $$\mu_{\mathbb{C}}(A) = (A^m + a_{m-1}A^{m-1}+\cdots + a_0I) + i(b_{m-1}A^{m-1}+\cdots + b_0I).$$ En particular, $$b_{m-1}A^{m-1}+\cdots + b_0I = \mathbf{0}.$$ Pero desde $\mu_{\mathbb{C}}(x)$ es el polinomio mínimo de a$A$$\mathbb{C}$, no polinomio de menor digree puede aniquilar $A$, lo $b_{m-1}=\cdots=b_0 = 0$. Por lo tanto, todos los coeficientes de $\mu_{\mathbb{C}}(x)$ son números reales.

Por lo tanto, $\mu_{\mathbb{C}}(x)\in\mathbb{R}[x]$, por tanto, por la definición de un mínimo de polinomio, se deduce que el $\mu_{\mathbb{R}}(x)$ divide $\mu_{\mathbb{C}}(x)$$\mathbb{R}[x]$, y, por tanto, en $\mathbb{C}[x]$. Ya que ambos polinomios son monic y están asociados, son iguales. QED


Así que, sí, su argumento es correcto.

11voto

Gregory Puntos 707

Otra manera de demostrar este hecho puede ser la observación de que "no sale de su campo, mientras que el uso de eliminación Gaussiana". Más precisamente:

La proposición. Deje $K \subseteq F$ ser una extensión de campo deje $v_1, \dots, v_r \in K^n$. Si $v_1, \dots, v_r$ son linealmente dependientes sobre $F$, son linealmente dependientes sobre $K$.

Prueba. Vamos a probar el contrapositivo de la declaración. Supongamos que el $v_i$'s son linealmente independientes sobre $K$. Deje $\lambda_i \in F$ tal que $\sum_i \lambda_i v_i = 0$. Podemos encontrar $e_j \in F$ linealmente independientes sobre $K$ tal que $\lambda_i = \sum_j \alpha_{ij} e_j$,$\alpha_{ij} \in K$. Ahora de $\sum_{i,j} e_j \alpha_{ij} v_i = 0$ podemos deducir que $\sum_i \alpha_{ij} v_i = 0$, para cada $j$. Desde la independencia de $v_i$'s$K$,$\alpha_{ij} = 0$, por lo que $\lambda_i = 0$. $\square$

Ahora considere una extensión de campo $K \subseteq F$ y una matriz de $A \in M_n(K)$. Deje $\mu_K$ $\mu_F$ el mínimo polinomios de $A$$K$$F$, respectivamente. Considerando $I, A, A^2, \dots, A^r$ en el espacio vectorial $M_n(K)$, de la proposición ha $\deg \mu_K \leq \deg \mu_F$. Por otro lado está claro que $\mu_F$ divide $\mu_K$. Por lo $\mu_F = \mu_K$.

2voto

codemac Puntos 689

Como Andrea explicó, el enunciado de la pregunta los resultados inmediatamente en la siguiente.

Deje $K$ ser un subcampo de un campo de $L$, vamos a $A$ $m$ $n$ matriz con coeficientes en $K$, y suponga que la ecuación de $Ax=0$ tiene un valor distinto de cero de la solución en $L^n$. Entonces tiene un valor distinto de cero de la solución en $K^n$.

Pero esto es obvio, porque el algoritmo de dar una solución (o su ausencia) sólo depende de que el campo generado por los coeficientes de $A$.

1voto

Shekhar Puntos 118

Este parece correcto.

Otra forma de ver esto es que usted puede encontrar el polinomio mínimo de la matriz mediante el cálculo de los factores invariantes de la matriz$A-XId$$\mathbb{R}$. Desde el mismo proceso (con las mismas operaciones) se puede realizar por $\mathbb{C}$, su mínimo polinomio es el mismo.

lo siento, no sé la palabra en inglés para los "invariantes factores", me refiero al proceso que el uso de sólo de filas y columnas de las operaciones, la matriz $A-XId$ puede ser única writtten como algunos de cero y una secuencia de polinomio en la diagonal en la que cualquier polinomio se divide de la siguiente, y donde la primera es la mínima polinomio $A$ y el último el polinomio característico de a $A$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X