7 votos

Una pregunta sobre el "Álgebra Lineal" por Kenneth Hoffman

Estoy leyendo "Álgebra Lineal" por Kenneth Hoffman y Ray Kunze.

Ahora estoy perdido en $\S$6.4 Teorema 6: la prueba se ve bien, pero cuando cojo un ejemplo, de alguna manera que no corresponde. Por favor buscar debajo del teorema y de la prueba, y mi ejemplo en $\color{blue}{\texttt{blue}}$, y pregunta en $\color{red}{\texttt{red}}$ en el paso 8. Por favor, amablemente me ayude: ¿de dónde me equivoco?

Teorema: Vamos a $V$ ser finito-dimensional espacio vectorial sobre el campo $F$ y deje $T$ ser un operador lineal en $V$. A continuación, $T$ es diagonalizable si y solo si el polinomio mínimo de a $T$ tiene la forma $p = (x - c_1) \dots (x - c_k)$ donde $c_1, \dots , c_k$ son elementos distintos de a $F$. $$\color{blue}{\texttt{Ejemplo: Elegir } V=\mathbb R^3, F=\mathbb R, T=\begin{bmatrix} 1 & 0 & 0\\ 0 & 2 & 1\\ 0 & 0 & 1 \end{bmatrix}, p=(x-1)(x-2), c_1=1, c_2=2 }$$

La prueba es: ((1)(2).. se agregan los números por mí) Prueba

(1) Hemos señalado anteriormente que, si $T$ es diagonalizable, su polinomio mínimo es un producto de distintos factores lineales (ver la discusión antes de Ejemplo 4).

(2)Para demostrar lo contrario, deje $W$ ser el subespacio generado por el conjunto de los vectores característicos de $T$, y supongamos $W \ne V$. $$\color{blue}{\texttt{característica vectores:} v_1=\begin{bmatrix} 1 \\ 0 \\ 0 \end{bmatrix} \texttt{para } c_1=1, v_2=\begin{bmatrix} 0 \\ 1 \\ 0 \end{bmatrix} \texttt{para } c_2=2.\\ W=\langle v1, v2 \rangle, W\ne V=\mathbb R^3. }$$ (3)Por el lema utilizado en la demostración del Teorema 5, hay un vector $\alpha$ no $W$ y un valor característico de a $c_j$ $T$ tales que el vector $\beta= (T - c_jI)\alpha$ se encuentra en W. $$\color{blue}{\texttt{Elegir: } \alpha=\begin{bmatrix} 0 \\ 0.5 \\ 0.5 \end{bmatrix}, c_j=c_1=1, \\ \beta=\begin{bmatrix} 0&0&0 \\ 0&1&1 \\ 0&0&0 \end{bmatrix} \begin{bmatrix} 0 \\ 0.5 \\ 0.5 \end{bmatrix} =\begin{bmatrix} 0 \\ 1 \\ 0 \end{bmatrix}, \beta=v_2 \en \langle v_1, v_2 \rangle = W. }$$ (4)Desde $\beta$ está en $W$, $\beta = \beta_1+\dots\beta_k$ donde $T\beta_i = c_i\beta_i$, $1\le i\le k$, y por lo tanto el vector $h(T)\beta = h(c_1)\beta_1+\dots+h(c_k)\beta_k$ es en $W$, para cada polinomio $h$.

(5)$p = (x-c_j)q$, para algún polinomio $q$. $$\color{blue}{ p=(x-1)(x-2)=(x-1)q \Rightarrow q=(x-2) }$$ (6)También se $q- q(c_j) = (x - c_j)h$. $$\color{blue}{ q-q(c_1)=q-q(1)=(x-2)-(1-2)=(x-1)=(x-1)h \Rightarrow h=1 }$$ (7)Tenemos $q(T)\alpha - q(c_j)\alpha = h(T)(T - c_jI)\alpha = h(T)\beta$. $$\color{blue}{ q(T)=(T-2I)=\begin{bmatrix} -1&0&0 \\ 0&0&1 \\ 0&0&-1 \end{bmatrix}, \\ q(T)\alpha=\begin{bmatrix} -1&0&0 \\ 0&0&1 \\ 0&0&-1 \end{bmatrix} \begin{bmatrix} 0 \\ 0.5 \\ 0.5 \end{bmatrix} =\begin{bmatrix} 0 \\ 0.5 \\ -0.5 \end{bmatrix}\\ q(c_j)\alpha=q(c_1)\alpha=q(1)\alpha=(1-2)\alpha=-\alpha=\begin{bmatrix} 0 \\ - 0.5 \\ - 0.5 \end{bmatrix}, \\ q(T)\alpha-p(c_j)\alpha=\begin{bmatrix} 0 \\ 1 \\ 0 \end{bmatrix} = h(T)\beta = 1\beta\\ }$$ (8)Sino $h(T)\beta$ $W$ y, desde $0 = p(T)\alpha = (T - c_jI)q(T)\alpha$, $$\color{blue}{ p(T)=0\\ q(T)\alpha = \begin{bmatrix} -1&0&0 \\ 0&0&1 \\ 0&0&-1 \end{bmatrix} \begin{bmatrix} 0 \\ 0.5 \\ 0.5 \end{bmatrix} = \begin{bmatrix} 0 \\ 0.5 \\ -0.5 \end{bmatrix} \\ 0=p(T)\alpha = (T - c_jI)q(T)\alpha = \begin{bmatrix} 0 & 0&0\\ 0& 1&1 \\ 0&0&0 \end{bmatrix} \begin{bmatrix} 0 \\ 0.5 \\ -0.5 \end{bmatrix} }$$ el vector $q(T)\alpha$$W$. $$\color{red}{ q(T)\alpha = \begin{bmatrix} 0 \\ 0.5 \\ -0.5 \end{bmatrix} \noen W= \langle v_1, v_2 \rangle = \left \langle \begin{bmatrix} 1\\ 0 \\ 0 \end{bmatrix} , \begin{bmatrix} 0 \\ 1 \\ 0 \end{bmatrix} \right \rangle\\ \texttt {--¿Qué puede ocurrir? por qué este paso no corresponde?} }$$ (9)por lo Tanto, $q(c_j)\alpha$$W$.

(10)Desde $\alpha$ no $W$,$q(c_j) = 0$.

(11)Que contradice el hecho de que $p$ tiene distintas raíces. QED.

1voto

daw Puntos 11189

Esta es una prueba por contradicción. En el ejemplo concreto, la contradicción viene antes que en la prueba. Debido a que la prueba ha de seguir todas las posibles rutas de acceso al absurdo, para hacer de la contradicción argumento de la obra. El ejemplo ya puede fallar en una etapa anterior.

En el ejemplo de cocinado se construyen de tal manera que su $W$ no era la de espacio se extendió por todos los vectores propios (o característica de vectores). Por lo tanto, la contradicción huelgas en exactamente el lugar de la prueba, donde el hecho de '$W$=se extendió por todos los vectores propios' va a ser utilizado.

Si quieres empezar con un no diagonalizable la matriz (a decir $\pmatrix{0&1\\0&0}$), a continuación, la contradicción debe suceder en el último punto en la prueba a (10)/(11).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X