25 votos

Por qué la factorización polinómica se generaliza a las matrices

Estoy leyendo sobre álgebra lineal y me encontré con el siguiente teorema en el que tengo un problema para convencerme:

Teorema 2.1 $\,$ Todo operador lineal en un espacio vectorial complejo finito tiene un valor propio.

Prueba:

Para demostrar que $T$ (nuestro operador lineal sobre $V$ ) tiene un valor propio, fijar cualquier vector no nulo $v \in V$ . Los vectores $v, Tv, T^2v,..., T^nv$ no pueden ser linealmente independientes, porque $V$ tiene dimensión $n$ y tenemos $n + 1$ vectores. Por lo tanto, existen números complejos números complejos $a_0,...,a_n$ no todos $0$ , de tal manera que

$$a_0v + a_1Tv + ··· + a_nT^nv = 0.$$ Haga que el $a$ los coeficientes de un polinomio, que se puede escribir en forma factorizada como $$a_0 + a_1z + ··· + a_nz^n = c(z r_1)\cdots(z r_m),$$ donde $c$ es un número complejo distinto de cero, cada $r_j$ es complejo, y la ecuación se mantiene para todos los complejos $z$ . Entonces tenemos

$${\color{red}{ 0=(a_0I + a_1T + ··· + a_nT^n)v= c(T r_1I)\cdots(T r_mI)v}},$$ lo que significa que $T r_j$ I no es inyectiva para al menos un $j$ . En otras palabras, $T$ tiene un valor propio. $\;\blacksquare$

Tengo problemas con la forma factorizada del polinomio matricial (en rojo). Entendí que la factorización es válida para un polinomio por el teorema fundamental del álgebra, pero ¿por qué también lo es para las matrices?

En otras palabras, ¿por qué es cierta la parte que he destacado? ¿Existe siempre tal factorización?

¿Podría tener alguna ayuda para ver esto? Gracias =)

P.D. aquí es mi referencia (página 3).

ACTUALIZACIÓN:

Otra persona también ha preguntado el la misma pregunta antes de lo que parece.

1 votos

Toma los vectores $[1,0,\cdots]$ , $[1,0,\cdots]$ , $\cdots$ , $[1,0,\cdots]$ . Serán $n+1$ vectores, ninguno cero, generados por ejemplo por la matriz con un solitario 1 arriba en la esquina izquierda, pero no linealmente independientes.

1 votos

¿Quieres hacer un poco de trabajo y escribir la cita en lugar de usar una imagen? Hará que la pregunta sea mejor, y asegurará que sea siempre accesible para los usuarios

0 votos

Entendido. Editaré mi mensaje :)

17voto

Mr.T Puntos 554

Lo que importa es que las matrices implicadas, es decir, las potencias de $T$ y se desplazan entre sí. Teniendo esto en cuenta, la legitimidad de la factorización debería estar clara: basta con pensar en expandir los paréntesis utilizando las propiedades asociativas y distributivas de la multiplicación de matrices. Se puede obtener un argumento más sofisticado viendo la ecuación en términos de una acción del anillo de polinomios $\mathbb{C}[x]$ en la que la factorización es más familiar.

0 votos

Una pregunta más me ronda la cabeza. ¿Entonces la factorización siempre existe? Si tenemos un polinomio matricial entonces siempre podemos encontrar tales valores $r_1, ..., r_m$ y $c$ que la factorización de la matriz polinómica es posible?

0 votos

Sí. Esto funciona porque $\mathbb{C}$ es algebraicamente cerrado (es decir, teorema fundamental del álgebra).

0 votos

Gracias. Una última pregunta :) ¿Las raíces del polinomio matricial tienen que ser siempre de la forma $r_i I$ ? ¿Puede haber una forma arbitraria (es decir, no de la forma $r_i I$ ) para el polinomio matricial? Si no, ¿por qué?

17voto

David HAust Puntos 2696

Esto se deduce simplemente del propiedad universal de anillos polinómicos, lo que implica que cualquier ecuación polinómica en $\, R[x]\,$ persistirá cuando se "evalúe" en cualquier anillo donde las imágenes de las constantes ir al trabajo con la imagen de $x$ (que es precisamente la condición necesaria para que dicho mapa sea un homomorfismo de anillo).

De hecho, un anillo de polinomios está diseñado precisamente para tener esta propiedad, es decir, es el anillo más general ("libre") que contiene $\,R\,$ y un nuevo elemento $\,x\,$ que conmuta con todos los elementos de $R$ . Dado que sólo utilizamos los axiomas del anillo y la conmutatividad constante cuando probamos ecuaciones polinómicas, tales pruebas persisten en dichas imágenes del anillo donde persiste la conmutatividad constante.

Esto es cierto en su ejemplo porque las constantes $\,r\,$ mapean a unas matrices constantes $\,rI\,$ que conmutan con $\,T = $ imagen de $x$ .

Esto implica que todas las ecuaciones polinómicas conocidas (por ejemplo, el Teorema del Binomio y la factorización de la diferencia de cuadrados) persistir sea verdadera cuando se evalúa en cualquier anillo donde las constantes conmutan con las indeterminadas. Lo mismo ocurre con muchas otras ecuaciones polinómicas omnipresentes, por ejemplo, las factorizaciones polinómicas ciclotómicas, las identidades polinómicas de Bezout para la gcd, las resultantes, etc. Por lo tanto, tales ecuaciones representan universal leyes (identidades), modulo dicha constante conmutativa.

Estas ideas se ponen de manifiesto cuando se estudia $(R-)$ álgebras, que son anillos que contienen una imagen central de $R$ es decir, donde las imágenes de los elementos de $R$ viajar con todo. Cualquier ecuación polinómica que se cumpla en $\,R[x_1,\ldots,x_n]\,$ seguirá siendo verdadero cuando se evalúe en cualquier $R$ -es decir, es una identidad (ley) de $R$ álgebras. De hecho, es fácil demostrar que una ecuación se cumple en $\,R[x_1,\ldots,x_n]\,$ si es verdadera en todos los $R$ álgebras. De ahí que las ecuaciones que se cumplen sean $\,R[x_1,\ldots,x_n]\,$ son precisamente las identidades (leyes universales) de $R$ -algebras.

0 votos

Muchas gracias, se lo agradezco.

11voto

JeanMarie Puntos 196

Una explicación es que los polinomios de una matriz dada $A$ constituyen un subring conmutativo $\mathbb{K}[A]$ del anillo de matrices, y puede considerarse como una imagen del anillo de polinomios $\mathbb{K}[X]$ por lo que se puede considerar que en este subring, se trabaja exactamente como en $\mathbb{K}[X]$ .

De hecho, $\mathbb{K}[A]$ es isomorfo al anillo cociente $\mathbb{K}[X]/(m(X))$ donde $m(X)$ es un polinomio mínimo para la matriz $A$ .

Edición : tomemos un ejemplo (la matriz se ha tomado prestada de ( https://www.youtube.com/watch?v=FecegfvA-Pg )).

Considere la matriz $A=\begin{pmatrix}0&-2&-2\\1&3&1\\0&0&2\end{pmatrix}$ cuyo polinomio característico es $$c(X)=X^3+X^2+1$$

Utilizando el teorema de Cayley-Hamilton, se tiene $$c(A)=A^3+A^2+I=0$$ (piense en sustituir 1 por $I$ !), por lo demás dicho, cada vez que te encuentres $A^3$ en un cálculo, se puede sustituir por $-A^2-I$ . Esto lleva a una bajada de grado sistemática: cualquier polinomio de cualquier grado en $A$ puede ser llevado a una forma (única) como un polinomio (como máximo) de 2º grado, por ejemplo $A^5+A=A^3A^2+A=(-A^2-I)A+A=-A^3=-A^2-I$ . Pero en realidad, en este caso hay una combinación de grado inferior de poderes de $A$ que se aniquila, más precisamente $$m(A)=A^2-3A+2I=0 \ \ \ (1)$$ ( $m(X)=X^2-3X+2$ se llama polinomio mínimo). Así, de hecho, la bajada de grado hace que cualquier polinomio $P(A)$ en $A$ se puede escribir un polinomio de primer grado $\pi(A)$ . Esta transformación puede ser considerada como un mapeo lineal, es decir, un homomorfismo entre espacios lineales (nótese que he cambiado $A$ en $X$ ).

$$\varphi: \ \ \begin{cases}P(X) \longrightarrow \pi(X)\\ \mathbb{K}[X] \longrightarrow \mathbb{K}_1[X]\end{cases}$$

(denotando por $\mathbb{K}_1[X]$ el espacio vectorial de los polinomios de grado máximo 1)

Nótese que el núcleo de este mapeo es el conjunto $M$ de polinomios múltiplos de $m(x)$ . Es posible que sepas que tomar las clases en módulo del núcleo conduce a un isomorfismo (pero puede que aún no lo sepas). La definición de $M$ suena como un ideal principal. Esto no es sorprendente porque la cartografía lineal $\varphi$ también puede considerarse -de forma fructífera- como un mapeo de anillos ( homomorfismo entre anillos ) con la siguiente regla de multiplicación (debido a la relación (1)): $$(aX+b)(a'X+b')=aa'(3X-2I)+...=(3aa'+ab'+a'b)X+(bb'-2aa')$$

El espacio cociente, al igual que para los espacios vectoriales, produciría un isomorfismo.

Observación: la estructura unificadora para los espacios vectoriales que también son anillos con una cierta relación de compatibilidad entre las reglas es la de una estructura de álgebra.

0 votos

Gracias por su ayuda. Se lo agradezco =)

0 votos

¿Podría elaborar un poco más su respuesta? :) Gracias, sólo para hacer el tema un poco más tangible para mí ;)

0 votos

Añadiré una edición a mi respuesta.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X