4 votos

Pregunta sobre una prueba de triangularizar una matriz

Me fue cuestionada a partir de mi amigo acerca de una no prueba en un libro de texto de álgebra lineal.

El autor menciona que la siguiente prueba del teorema, que cada matriz cuadrada en $\Bbb{C}$ es triangularizable, tiene un hueco, y por lo tanto no es válido:


En primer lugar, tenemos dos preliminar de los lemas.

Lema 1. Deje $I_m$ ser la matriz identidad de tamaño $m$, $A\in \mathfrak{M}_{m\times m}(\Bbb{C})$, y $U, B \in \mathfrak{M}_{n\times n}(\Bbb{C})$ tal que $U$ es invertible. Entonces $$ \bigg(\begin{matrix} I_m & 0 \\ 0 & U^{-1} \end{matrix}\bigg) \bigg( \begin{matrix} A & * \\ 0 & B \end{matrix} \bigg) \bigg( \begin{matrix} I_m & 0 \\ 0 & U \end{matrix} \bigg) = \bigg( \begin{matrix} A & * \\ 0 & U^{-1}BU \end{matrix} \bigg). $$

Lema 2. Deje $A \in \mathfrak{M}_{n\times n}(\Bbb{C})$. Entonces existe un autovalor $\lambda \in \Bbb{C}$ y una matriz invertible $U \in \mathfrak{M}_{n\times n}(\Bbb{C})$ tal que $$ U^{-1}AU = \bigg( \begin{matrix} \lambda & * \\ 0 & * \end{matrix} \bigg).$$

Prueba. Deje $v_1 \in \Bbb{C}^n$ ser distinto de cero vector propio correspondiente a $\lambda$. Deje $\{v_1, \cdots, v_n\}$ ser una base de $\Bbb{C}^n$ contiene $v_1$. Deje $U$ ser una matriz cuyas $k$-ésima columna es $v_k$. Entonces $$[AU]_{*1} = A[U]_{*1} = Av_1 = \lambda v_1 = \lambda [U]_{*1}$$ y por lo tanto $$ [U^{-1}AU]_{i1} = [U^{-1}]_{ij}[AU]_{j1} = \lambda [U^{-1}]_{ij}[U]_{j1} = \lambda \delta_{i1},$$ lo que demuestra el Lema 2.

Ahora pretendemos que para cada una de las $1 \leq k \leq n$ existen

  • una parte superior triangular de la matriz de $T_k$ del tamaño de la $k$,
  • una matriz cuadrada $A_{n-k}$ del tamaño de la $n-k$, y
  • una matriz invertible $U_k \in \mathfrak{M}_{n\times n}(\Bbb{C})$

tal que

$$ U_k^{-1} A U_k = \bigg( \begin{matrix} T_k & * \\ 0 & A_{n-k} \end{matrix} \bigg).$$

En particular, para $k = n$ esto implica que $A$ es triangularizable.

Vamos a comprobar esta afirmación por inducción en $k$. Para $k = 1$, este es un trivial consecuencia del Lema 2. Supongamos ahora que esto representa para $k < n$. Luego de aplicar el Lema de 2 a $A_{n-k}$, se obtiene una cierta $\tilde{\lambda} \in \Bbb{C}$ y una matriz invertible $\tilde{U}$ del tamaño de la $n-k$ tal que

$$ \tilde{U}^{-1}A_{n-k}\tilde{U} = \bigg( \begin{matrix} \tilde{\lambda} & * \\ 0 & A_{n-k-1} \end{matrix} \bigg).$$

Ahora vamos a $U_{k+1}$

$$U_{k+1} = U_k \bigg( \begin{matrix} I_k & 0 \\ 0 & \tilde{U} \end{matrix} \bigg). $$

Entonces

$$\begin{align*} U_{k+1}^{-1} A U_{k+1} &= \bigg( \begin{matrix} I_k & 0 \\ 0 & \tilde{U}^{-1} \end{de la matriz} \bigg) U_k^{-1} Un U_k \bigg( \begin{matrix} I_k & 0 \\ 0 & \tilde{U} \end{de la matriz} \bigg) = \bigg( \begin{matrix} I_k & 0 \\ 0 & \tilde{U}^{-1} \end{de la matriz} \bigg) \bigg( \begin{matrix} T_k & * \\ 0 & A_{n-k} \end{de la matriz} \bigg) \bigg( \begin{matrix} I_k & 0 \\ 0 & \tilde{U} \end{de la matriz} \bigg) \\ y= \begin{pmatrix} T_k & * \\ 0 & \tilde{U}^{-1}A_{n-k}\tilde{U} \end{pmatrix} = \begin{pmatrix} T_k & * & * \\ 0 & \tilde{\lambda} & * \\ 0 & 0 & A_{n-k-1} \end{pmatrix} =: \begin{pmatrix} T_{k+1} & * \\ 0 & A_{n-k-1} \end{pmatrix}. \end{align*}$$

Por lo tanto, la demanda sigue por la inducción y la prueba está completa. Q. E. D.


En realidad, yo estaba convencido de que este argumento, y fue incapaz de encontrar un hueco en esta prueba.

El libro dice que esto no prueba por alto la importancia de la $L$-subespacios invariantes. Así que he intentado que esto no prueba con algunos ejemplos de $A$ donde la multiplicidad de un autovalor $\lambda$ es mayor que la dimensión del núcleo de $A - \lambda I$ en la esperanza de que estas pruebas que revelan el fallo en el argumento anterior. Pero terminó sólo en la búsqueda de que el algoritmo anterior funciona en esos casos. Quiero saber lo que me estoy perdiendo.

7voto

Matt Dawdy Puntos 5479

No puedo encontrar una brecha en la prueba, pero déjenme comentar que la prueba funciona demasiado duro. Como Emil Artin dijo una vez,

Es mi experiencia que las pruebas que involucran matrices puede ser reducido en un 50% si se tira de las matrices.

Creo que esta prueba se presenta acortado aún más que eso. Deje $A : V \to V$ ser un operador lineal en un $n$-dimensiones complejo espacio vectorial $V$. Se define inductivamente una base $v_1, ... v_n$ $V$ tal que $A$ preserva $V_k = \text{span}(v_1, ... v_k)$. Esto es equivalente a $A$ siendo superior triangular con respecto a esta base. Definir $v_1$ a ser un autovector de a $A$ (con autovalor $\lambda_1$). Si $v_1, ... v_k$ se han definido, a continuación, $A$ preserva $V_k$, por lo tanto actúa en $V/V_k$, por lo tanto, tiene algunos autovector no (este es el paso crucial!). Deje $v_{k+1}$ cualquier elemento de $V$ la asignación a un autovector (con autovalor $\lambda_{k+1}$). A continuación,$A v_{k+1} \equiv \lambda_{k+1} v_{k+1} \bmod V_k$, por lo tanto $A$ preserva $V_{k+1}$. La conclusión de la siguiente manera.

(Los subespacios $V_k$ formar un completo bandera, y "la preservación de una completa bandera" es la base invariante en la manera de decir "superior triangular.")

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X