2 votos

Cuando el eigenspace es 1, cualquier matriz A compleja de $2\times 2$ es similar a $\left(\begin{array}{ll} \lambda & 1\\ 0 & \lambda \end{array}\right)$.

$\bbox[5px,border:2px solid gray]{ \text{ Caso 3 } }$ Si $\dim E_{\lambda}=1$, tome un $v$ distinto de cero en $E_{\lambda}$, entonces $\{v\}$ es una base para $E_{\lambda}$. Extienda esto a una base $\mathfrak{B}=\{v,\ w\}$ para $\mathbb{C}^{2}$ eligiendo $w\in \mathbb{C}^{2}\backslash E_{\lambda}$. Si $Aw = \alpha v+\beta w$, entonces existe una matriz de transformación $P$ (que transforma el original $\{v\}$ en $\mathfrak{B}$), tal que $C =P^{-1}AP=\left(\begin{array}{ll} \lambda & \alpha\\ 0 & \beta \end{array}\right) \quad () $

Pero en este caso 3, $C$ debe cumplir $\dim E_{\lambda}=1$. Por lo tanto, para que $C$, y luego $A$, tengan $\lambda$ de multiplicidad algebraica 2, entonces $ C =\left(\begin{array}{ll} \lambda & \alpha\\ 0 & \lambda \end{array}\right) $. (Omito un párrafo considerado innecesario)

Además, dado que $ Cw=u+\lambda w, $ si consideramos la base alternativa $B' =\{u,\ w\}$ entonces hay una matriz de transformación, digamos $Q$, tal que $Q^{-1}CQ =\left(\begin{array}{ll} \lambda & 1\\ 0 & \lambda \end{array}\right). $ Finalmente, use $()$ para sustituir A por $C$ : $Q^{-1}CQ = (PQ)^{-1}A(PQ)$.

$5.$ La respuesta de Christiaan Hattingh abajo dice: ¿Porque "w no es un eigenvector de C, ... $Cw=u+w$ " ? ¿Por qué no $ku+w$ para algún $k$?

Entonces, ¿cómo prueba él que $u = \alpha v$? ¿No percibo el "darse cuenta de que Aw = ..." ?

$6.$ ¿Por qué es $Q = \begin{bmatrix} \alpha & 0 \\ 0 & 1 \end{bmatrix}$ ? (Ver su respuesta a 6)

$9.$ ¿Cuál es la estrategia de prueba? Estoy confundido por todo este álgebra.

2voto

Christiaan Hattingh Puntos 2837

5.$\;$Aquí de nuevo, dado que $w$ no es un autovector de $C$ no podemos tener $Cw=\lambda w$...así que debe haber algún vector $u$, de modo que $Cw=u+\lambda w$. De hecho, podemos hacer algo mejor, al notar que $Aw=1\cdot(\alpha v)+\lambda w$, y $A(\alpha v)=\lambda \cdot(\alpha v)$...así que de hecho $u=\alpha v.

6.$\;$Aquí de nuevo, simplemente toma $Q=\begin{bmatrix} \alpha & 0 \\ 0 & 1 \end{bmatrix}$, y luego calcula $Q^{-1}CQ$ para obtener la matriz requerida. La verificación de que esto realmente es así, es la misma que para el punto 2 arriba mencionado.

9.$\;$Es una prueba constructiva, que te muestra cómo encontrar una forma canónica de Jordan para una matriz en $\mathscr{M}_{2 \times 2}(\mathbb{C})$ de una matriz que no puede ser diagonalizada.


Respondo de forma separada, para tratar de clarificar según la solicitud del OP en los comentarios:

ok, ahora para expandir aún más el punto 5. Si $Cw \neq \lambda w$, entonces debe haber algún otro vector que no sea un múltiplo escalar (es decir, linealmente dependiente) de $w$ de modo que $Cw$ sea igual a $\lambda w$ más este otro vector ("desconocido"). Denotemos a este vector como $u$. Entonces $Cw=u+\lambda w$. No podemos tener un tercer vector linealmente independiente en esta ecuación, dado que la dimensión de $\mathbb{C}^2$ es 2.

No voy a añadir más a esta respuesta, pero aquí tienes una sugerencia: ¿por qué no lo intentas en "práctica"? Toma la siguiente matriz: \begin{equation} \begin{bmatrix} \frac{3}{2} & \frac{1}{4} \\ -1 & \frac{5}{2} \end{bmatrix}, \end{equation} encuentra su autovalor y un autovector correspondiente. Luego sigue la prueba paso a paso (encuentra la matriz $P$, calcula $P^{-1}AP$, etc.) y ve si puedes llegar a la forma \begin{equation} \begin{bmatrix} \lambda & 1 \\ 0 & \lambda \end{bmatrix}. \end{equation}

0voto

egreg Puntos 64348

Cualquier matriz cuadrada (compleja) $A$ tiene al menos un valor propio $\lambda_1$, con un vector propio $v_1$. Podemos completar el vector propio para formar una base $\mathscr{B}=\{v_1,v_2,\dots,v_n\}$ de $\mathbb{C}^n$ ($n$ es el orden de $A$). Entonces, la transformación lineal $f\colon \mathbb{C}^n\to\mathbb{C}^n$ definida por $f(v)=Av$ tiene, como matriz representativa con respecto a $\mathscr{B}$, la matriz $$ C=\begin{bmatrix} C_{\mathscr{B}}(Av_1) & C_{\mathscr{B}}(Av_2) & \dots & C_{\mathscr{B}}(Av_n) \end{bmatrix} $$ donde $C_{\mathscr{B}}(v)$ denota el vector de coordenadas con respecto a $\mathscr{B}$, es decir $$ C_{\mathscr{B}}(v)= \begin{bmatrix} \alpha_1\\ \alpha_2\\ \vdots\\ \alpha_n \end{bmatrix} \quad\text{solo si}\quad v=\alpha_1v_1+\alpha_2v_2+\dots+\alpha_nv_n. $$ Ahora, $Av_1=\lambda_1v_1$, entonces la primera columna de $C$ es $$ \begin{bmatrix} \lambda_1\\ 0\\ \vdots\\ 0 \end{bmatrix}. $$ Observa que la matriz $C$ es similar a $A$, porque $A=PCP^{-1}$, donde $P=\begin{bmatrix}v_1&v_2&\dots&v_n\end{bmatrix}$. De esta manera podemos demostrar, por inducción, que toda matriz es similar a una matriz triangular.

En el caso particular cuando $n=2$, la matriz $C$ es triangular: $$ C=\begin{bmatrix} \lambda_1 & t\\ 0 & \lambda_2 \end{bmatrix}\,. $$ Observa que, dado que $A$ y $C$ son similares, los elementos diagonales de $C$ son exactamente los valores propios de $A$: las matrices similares tienen los mismos valores propios y los valores propios de una matriz triangular son los coeficientes en la diagonal.

Caso 1: $\lambda_2\ne\lambda_1$

Podemos elegir $v_2$ para ser un vector propio relativo a $\lambda_2$, y en este caso tenemos $t=0$.

Caso 2: $\lambda_2=\lambda_1$ y la dimensión del espacio propio es $2$

Podemos elegir $v_2$ para ser un vector propio relativo a $\lambda_1$; nuevamente $t=0$.

Caso 3: $\lambda_2=\lambda_1$ y la dimensión del espacio propio es $1$

No hay forma de hacer que $C$ sea diagonal, porque decir que $t=0$ significa que $v_2$ es un vector propio relativo a $\lambda_2=\lambda_1$, lo cual va en contra de la dimensión $1$ del espacio propio.

Si $x$ es tal que $\{v_1,x\}$ es linealmente independiente, entonces $Ax=\alpha v_1+\lambda_1x$, con $\alpha\ne0$. Observa que el coeficiente de $x$ es forzado por la hipótesis de que $A$ tiene el valor propio $\lambda_1$ con multiplicidad algebraica $2$ y multiplicidad geométrica $1$.

Si $t\ne0$, al definir $v_2=\alpha^{-1}tx$, tenemos que $$ Av_2=\alpha^{-1}t(Ax)=\alpha^{-1}t\alpha v_1+\alpha^{-1}t\lambda_1 x= tv_1+\lambda_1v_2, $$ lo que significa que podemos elegir $v_2$ de modo que la matriz representativa con respecto a $\mathscr{B}=\{v_1,v_2\}$ sea $$ \begin{bmatrix} \lambda_1 & t\\ 0 & \lambda_1 \end{bmatrix} $$ con un $t$ arbitrario. Elegir $t=1$ es ciertamente muy razonable, pero no del todo necesario.

Ves que la consideración de los vectores propios generalizados en el caso muy simple de $n=2$ puede evitarse. Sin embargo, es realmente necesario cuando se trata de matrices de orden superior, porque conduce al concepto de descomposición de Jordan.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X