25 votos

Pregunta acerca de Axler prueba de que cada operador lineal tiene un autovalor

Estoy perplejo por Sheldon Axler prueba de que cada operador lineal en un número finito de dimensiones complejas espacio vectorial tiene un autovalor (teorema 5.10 en "Álgebra Lineal se Hace la Derecha"). En particular, es su maniobra en el último conjunto de ecuaciones donde se sustituye el operador lineal $T$ para la variable compleja $z$. Ver a continuación.


Theorem 5.10 in "Linear Algebra Done Right", Sheldon Axler


Qué principio permite Axler para hacer esta sustitución de operador lineal para la variable compleja y todavía dicen que el lado derecho es igual a la LHS, y que la LHS, pasa de ser el número cero (en el anterior conjunto de ecuaciones) para el vector cero (en el conjunto final de ecuaciones)?

Como una posible respuesta a mi propia pregunta, en la página anterior, que él ofrece las siguientes observaciones:


polynomial over linear operator


Es la linealidad del mapa de "polinomio de más de variable compleja" a "polinomio T sobre" la propiedad que hace este trabajo? Si es así, no me siento muy iluminado. Cualquier otra visión aquí es muy apreciada, especialmente desde Axler hace un comentario de que esta prueba es mucho más clara que la de la prueba usual a través de la determinante.

12voto

Ralf Edmund Puntos 912

El punto esencial aquí no es sólo la linealidad, pero también la compatibilidad con la multiplicación.

Esto significa que el siguiente. Cuando $$p(X) = \sum_n a_n X^n, \qquad q(X) = \sum_n b_n X^n$$ podemos definir la multiplicación de polinomios de la forma habitual por $$(pq)(X) = \sum_n c_n X^n, \quad \text{ where } c_n = \sum_{i + j = n} a_i b_j.$$

Entonces no sólo nos han $$(pq)(z) = p(z)q(z)$$ para cualquier $z \in \mathbf{C}$, pero también $$(pq)(T) = p(T)q(T)$$ para cualquier espacio vectorial endomorfismo $T$.

Por inducción, esto puede ser extendida a los productos de cualquier número finito de polinomios.

Así, la igualdad de polinomios $$a_0 + a_1 X + \ldots + a_n X^n = c(X - \lambda_1) \cdots (X - \lambda_n)$$ implica tanto $$a_0 + a_1 z + \ldots + a_n z^n = c(z - \lambda_1) \cdots (z - \lambda_n)$$ y $$a_0 I+ a_1 T + \ldots + a_n T^n = c(T - \lambda_1 I) \cdots (T - \lambda_n I)$$ En términos abstractos, para cualquier $\mathbf{C}$-álgebra $A$ y un elemento $a \in A$, en la evaluación map $\operatorname{ev}_a \colon \mathbf{C}[X] \to A, \ p \mapsto p(a)$ es una de morfismos de $\mathbf{C}$-álgebras. Esto se aplica en particular para$A = \mathbf{C}$$A = L(V)$.

6voto

GmonC Puntos 114

Tienes razón en que hay más que sólo la linealidad. El principio aquí es que para cualquier operador lineal $T$ en un espacio de $V$ sobre un campo $K$, el mapa de $\eta_T:\def\End{\operatorname{End}}K[X]\to\End(E)$ $\sum_ic_iX^i\mapsto\sum_ic_iT^i$ (sustitución del operador $T$ para el indeterminado $X$ o "evaluación en $T$") es una de morfismos de anillos: no sólo es $K$-lineal, pero también respeta la multiplicación: $\eta_T(PQ)=\eta_T(P)\circ\eta_T(Q)$. Para comprobar la validez de este es bastante formal de la materia: la forma en que el producto $PQ$ de polinomios se calcula sólo utiliza reorganizar/la combinación de los poderes de $X$ y escalares, y las mismas operaciones son válidos cuando se $X$ es sistemáticamente reemplazados por$~T$. Tenga en cuenta que un ejemplo particular es el de la conmutación de escalares y poderes: $aX^ibY^j=abX^iY^j=abX^{i+j}$, y la correspondiente igualdad de $aT^ibT^j=abT^{i+j}$ es válida porque la $T$ viajes con la multiplicación escalar, que es porque es un lineal operador. Tenga en cuenta que si se iba a tratar de hacer lo mismo para una no lineal operador en lugar de $T$, a continuación, el mapa resultante $K[X]\to E^E$ (ya no estamos en un endomorfismo como resultado, pero aún así un mapa de $E\to E$, y el conjunto de todos los mapas, es todavía un $K$ espacio vectorial) serían $K$-lineal, pero no respecto de la multiplicación.

Por cierto, me parece que uno puede hacer un poco mejor que en la citada prueba (que es la pieza central de Axler algo dudosa "abajo determinantes" de la demanda). Tenga en cuenta que es uno utiliza el primer lineal de dependencia que surge entre los vectores $v,Tv,T^2v,\ldots$, decir $0=c_0v+c_1Tv+\cdots+c_dT^d$, $c_d\neq0$ por minimality y después de dividir todo lo que uno puede suponer $c_d=1$. Esto significa que $p[T](v)=0$ donde $p=X^d+c_{d-1}X^{d-1}+\cdots+c_1X+c_0$, y no monic polinomio en$~T$ de menor grado se desvanece cuando se aplica a$~v$ (debido a que por la minimality suposición $v,Tv,\ldots,T^{d-1}v$ son linealmente independientes). El subespacio $V'=\ker(p[T])$ contiene $v$, de modo que es distinto de cero, y es cerrado bajo la aplicación de la$~T$; va a ser todos los de$~T$ si $d=n$ (como sucede a menudo), pero en cualquier caso a partir de ahora se puede restringir nuestra atención a $V'$, y llame a $T'$ la restricción de $T$$V'$. A continuación, $p$ es el polinomio mínimo de a$~T'$: uno ha $p[T']=0$ (como puede ser visto usando ese $p[T](T^iv)=T^i(p[T](v))=T^i(0)=0$) y es el grado mínimo monic polinomio con esta propiedad. (Este mínimo polinomio de bienes es todo lo que va a ser utilizado.)

En esta situación no sólo no $p$ tiene alguna raíz que es un autovalor de a $T'$ y por lo tanto de $T$ (asumiendo que funciona a través de los números complejos), pero cada raíz de$~p$ es un autovalor (esto es cierto sobre arbitraria campos, aunque, por supuesto, sólo a través de algebraicamente cerrado campos se sabe de la existencia de tales raíces). He aquí por qué: si $\lambda$ es una raíz de$~p$ uno puede factor por $X-\lambda$ y escribir $p=(X-\lambda)q$ donde$\deg q=\deg p-1$, de modo que el grado razones mencionadas $q[T']\neq0$. Ahora $0=p[T']=(T'-\lambda I)\circ q[T']$, y cada vector en la (distinto de cero) la imagen de $q[T']$ es un autovector de a$~T'$ para el autovalor$~\lambda$, en otras palabras un autovector de a$~T$$~\lambda$ acostado en el subespacio$~V'$.

4voto

djeidot Puntos 2143

Usted está en el camino correcto. El mapa de "polinomio de más de variable compleja" a "polinomio sobre T" es lineal, sino que también preserva la multiplicación. Si $h(x) = f(x) g(x)$ como polinomios sobre x, entonces $h(T) = f(T) g(T)$ como polinomios sobre T. Así que si usted factor en términos de $x$ que factores en términos de $T$.

1voto

William Lannen Puntos 4145

Él no dice eso, y tienes razón, son diferentes ecuaciones y diferentes ceros.

Lo que dice es: si sustituido el $T$ $z$ en el polinomio, un natural de la factorización de la forma $c(z-\lambda_1)...(z-\lambda_m)$ que se presenten. Ahora, volviendo a la $T$-polinomio, se puede comprobar que una similar de la factorización con el mismo $c$ se observa también en esta ecuación (pero ahora el cero es vectorial). Para probarlo, sólo defactorize la $T$-polinomio.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X