11 votos

Al resolver el vector propio, ¿cuándo hay que comprobar cada ecuación?

Por ejemplo, supongamos que queremos resolver los vectores propios de:

$$A = \begin{bmatrix} 0 & 1 \\ 2 & -1 \end{bmatrix} $$

Rápidamente encontramos que los valores propios son $1, -2$ es decir $\sigma(A) = \{1, -2\}$

Entonces $Av_1 = \lambda_1 v_1$

$$ \begin{bmatrix} 0 & 1 \\ 2 & -1 \end{bmatrix} \begin{bmatrix}v_{11} \\ v_{12} \end{bmatrix} = \begin{bmatrix} -2v_{11} \\ -2v_{12} \end{bmatrix}$$

Obtenemos dos ecuaciones:

$v_{12} = -2 v_{11}$

$2v_{11} - v_{12} = -2 v_{12}$

Al resolver cualquiera de las dos ecuaciones se obtienen vectores propios equivalentes, es decir $v_1 = [1 -2]^T$ .

¿A qué se debe esta propiedad? ¿Por qué sólo hay que comprobar una ecuación en este caso?

¿Existen condiciones o criterios sobre cuándo debemos comprobar todas las ecuaciones en lugar de una sola?

5voto

H. R. Puntos 4749

Su pregunta se remonta a cómo se encuentra un vector propio de una matriz cuadrada ${\bf{A}}$ . Supongamos que buscamos no cero vectores ${\bf{x}}$ llamado vectores propios de ${\bf{A}}$ tal que

$${\bf{Ax}} = \lambda {\bf{x}}\tag{1}$$

reescribir la ecuación en la forma

$${\bf{Ax}} = \lambda {\bf{Ix}}\tag{2}$$

donde ${\bf{I}}$ es la matriz de identidad. Ahora, juntando términos al lado izquierdo podemos obtener

$$\left( {{\bf{A}} - \lambda {\bf{I}}} \right){\bf{x}} = {\bf{0}}\tag{3}$$

Como ves, se trata de un sistema de ecuaciones algebraicas lineales . ¿Cuál es el requisito para que este sistema tenga no cero ¿Soluciones? Sí, el determinante de la matriz de coeficientes debe desaparecer, lo que significa que

$$\det ({\bf{A}} - \lambda {\bf{I}}) = 0\tag{4}$$

esta es la ecuación principal en la que se encuentra el valores propios de la misma. Así, los valores propios establecen el determinante de ${{\bf{A}} - \lambda {\bf{I}}}$ a cero. Cuando el determinante de esta matriz es cero, implica que las ecuaciones de (3) son depende linealmente . En tu ejemplo, tus dos ecuaciones son linealmente dependientes ya que puedes comprobar fácilmente que son realmente la misma

$$\left\{ \begin{array}{l} {v_{12}} = - 2{v_{11}}\\ 2{v_{11}} - {v_{12}} = - 2{v_{12}} \end{array} \right.\,\,\,\,\,\,\,\, \to \,\,\,\,\,\,\,\left\{ \begin{array}{l} 2{v_{11}} + {v_{12}} = 0\\ 2{v_{11}} - {v_{12}} + 2{v_{12}} = 0 \end{array} \right.\,\,\,\, \to \,\,\,\,\,\left\{ \begin{array}{l} 2{v_{11}} + {v_{12}} = 0\\ 2{v_{11}} + {v_{12}} = 0 \end{array} \right.\tag{5}$$

En conclusión, podría decir que nunca usará todo ecuaciones en $(2)$ o $(3)$ . Si ${\bf{A}}$ es un $n \times n$ entonces hay que utilizar $n-1$ o menos ecuaciones.

0 votos

No creo que tenga sentido decir "no todas las ecuaciones de (3) son linealmente independientes". La independencia lineal es una propiedad de todo un conjunto, no de los elementos de un conjunto. Sería más claro decir "las ecuaciones de (3) son linealmente dependientes".

0 votos

Creo que tienes razón :) ¡Lo arreglaré! :) ¡Mi error al escribir!

2voto

Jean-Claude Arbaut Puntos 9403

Digamos que empiezas con un $n \times n$ matriz. Aquí $n=2$ .

La ecuación de definición de los vectores propios/valores propios es $Au=\lambda u$ o $(A-\lambda I)u = 0$ .

Esto significa que, dado un valor propio $\lambda$ se buscan los vectores no nulos $u$ tal que $(A-\lambda I)u=0$ . Esto sólo puede ocurrir si $A-\lambda I$ no es regular, es decir, su rango es menor que $n$ .

¿Qué ocurre entonces? Los vectores propios forman un subespacio de $\Bbb R^n$ (o $\Bbb C^n$ si trabaja en $\Bbb C$ ).

Este subespacio es al menos de dimensión $1$ lo que ocurre si $A-\lambda I$ tiene rango $n-1$ . En ese caso, tendrá $n-1$ ecuaciones a resolver, y un "grado de libertad", es decir, un parámetro: por tanto, un subespacio de 1 dimensión.

Si el rango de $A-\lambda I$ es menor, el subespacio de vectores propios asociado al valor propio $\lambda$ será mayor, y tendrás más parámetros, y menos ecuaciones que resolver. Si $\mathrm{rank} (A-\lambda I)=k$ entonces al resolver para $(A-\lambda I)u=0$ se puede resolver para $k$ ecuaciones, y queda $n-k$ o un subespacio de dimensión $n-k$ .

Si la matriz $A$ es diagonalizable, todos sus espacios propios abarcarán la totalidad de su espacio lineal, pero esto no siempre ocurre. Sólo ocurre si, para un valor propio de multiplicidad $j$ el eigespacio tiene dimensión $j$ . Si $j=1$ siempre hay al menos un vector propio, pero pueden surgir problemas cuando $j>1$ para algún valor propio. Obsérvese que la multiplicidad de $\lambda$ es la potencia $j$ de $(t-\lambda)$ en la factorización del polinomio característico, que a su vez es $\chi_A(t)=\det(A-tI_n)$ . Lo único que se sabe con seguridad es que el rango de $A-\lambda I$ es menor o igual que la multiplicidad de $\lambda$ . Siempre es igual cuando esta multiplicidad es $1$ . Por cierto, esto también significa que si una matriz sólo tiene valores propios simples (es decir, todos tienen multiplicidad $1$ ), entonces siempre es diagonalizable.

Por lo tanto, si $A$ es diagonalizable, los vectores propios forman una base $P$ de su espacio lineal, y se puede escribir $A=P^{-1}DP$ .

Por ejemplo, una matriz triangular superior con sólo $1$ en la diagonal no puede ser diagonalizable si hay algún elemento no nulo por encima de la diagonal. Eso es porque cuando se diagonaliza, esta matriz sería necesariamente la identidad (los elementos de la diagonal son los valores propios). Sin embargo, sólo la identidad puede dar lugar a una matriz diagonalizada con identidad, ya que la ecuación $A=P^{-1}DP$ cedería con $D=I$ , $A=P^{-1}P=I$ también.


Con $2\times2$ matrices, es más sencillo: o bien un eigespacio tiene dimensión $1$ (y por lo tanto sólo hay una ecuación que resolver, como has notado), o bien tiene dimensión $2$ y la matriz inicial $A$ era diagonal (la misma razón que la anterior).

Eso no significa que un $2\times2$ es siempre diagonalizable: todavía se da el caso de que tenga un valor propio de multiplicidad $2$ pero un eigespacio de dimensión $1$ por ejemplo:

$$A=\left(\begin{matrix}\lambda & 1\\ 0 & \lambda\end{matrix}\right)$$

Entonces hay un valor propio ( $=\lambda$ ) con multiplicidad $2$ y

$$A-\lambda I=\left(\begin{matrix}0 & 1\\ 0 & 0\end{matrix}\right)$$

Por lo tanto, habría que resolver para

$$\left(\begin{matrix}0 & 1\\ 0 & 0\end{matrix}\right)\left(\begin{matrix}u \\ v\end{matrix}\right)=\left(\begin{matrix}0 \\ 0\end{matrix}\right)$$

Y se obtiene la ecuación $v=0$ . Esto significa que el eigespacio asociado a $\lambda$ tiene una dimensión, con un vector propio $\left(\begin{matrix}1 \\ 0\end{matrix}\right)$ .

2voto

Clair Symmetry Puntos 310

Lo que se hace es dejar que $\lambda = -2$ y encontrar el vector propio. Dado que $dim(E_\lambda)=1$ Si se trata de un vector lineal independiente en el espacio de los eigenes, se puede encontrar a través de dos ecuaciones. Por lo tanto, sólo se puede comprobar una ecuación.

0 votos

¿Cómo se justifica $dim(E_\lambda) = 1$

1voto

TrialAndError Puntos 25444

Si tiene un $2\times 2$ matriz $A$ y $\lambda$ es un valor propio, entonces los eigvectores serán ortogonales a las filas de $A-\lambda I$ . Si $A-\lambda I$ es el $0$ entonces todos los vectores serán vectores propios con valor propio $\lambda$ . Sin embargo, si $A-\lambda I$ no es el $0$ entonces los vectores de las filas deben ser linealmente dependientes, o no podría haber un vector que sea ortogonal a ambas filas, excepto el $0$ vector. Esto significa que una fila es un múltiplo constante de la otra (la constante podría ser $0$ .) Si $$ \left[\begin{array}{cc} r & s \end{array}\right] $$ es una fila no nula de $A-\lambda I$ entonces el vector propio es un múltiplo escalar de $$ \left[\begin{array}{c}s \\ -r \end{array}\right]. $$ Si las dos filas de $A-\lambda I$ son distintos de cero, entonces las filas son linealmente dependientes, y estás resolviendo la misma ecuación usando cualquiera de las filas, siendo una ecuación un múltiplo escalar distinto de cero de la otra ecuación.

Como nota adicional, si $A$ es un verdadero $2\times 2$ simétrica, entonces tiene una base ortonormal de vectores propios. Por lo tanto, si $(A-\lambda I)x=0$ tiene una solución no trivial $x=\left[\begin{array}{c} u \\ v \end{array}\right]$ entonces $y=\left[\begin{array}{c}v \\ -u\end{array}\right]$ es también automáticamente un vector propio porque $A$ debe tener una base ortonormal de vectores propios. Así que $2\times 2$ Las ecuaciones matriciales están muy restringidas, pero especialmente las simétricas.

0voto

janmarqz Puntos 4027

Cuando se resuelve para $Av=\lambda v$ y manipular como $\lambda v-Av=0$ entonces podría escribir a $$(\lambda1\!\!1-A)v=0,\qquad (1)$$ donde $1\!\!1=\left(\begin{array}{cc}1&0\\ 0&1\end{array}\right)$ .

Ecuación actual $(1)$ es un sistema lineal homogéneo, que se sabe que tiene soluciones no triviales si el determinante de la matriz $\lambda1\!\!1-A$ es cero.

Esto te lleva al polinomio característico $\chi(\lambda)$ que en el caso de su matriz es $\lambda^2+\lambda-2$ . Es aquí donde puedes ver que los valores propios son los ceros de ese polinomio. En el suyo son $$\lambda_1=-2,$$ y $$\lambda_2=1.$$

Entonces para encontrar los vectores propios hay que resolver dos veces dos ecuaciones con $\lambda_1$ es $$\left(\begin{array}{cc}-2-0&-1\\-2&-2+1\end{array}\right) \left(\begin{array}{c}x\\y\end{array}\right)= \left(\begin{array}{c}0\\0\end{array}\right)$$ that is $$\left(\begin{array}{cc}-2&-1\\-2&-1\end{array}\right) \left(\begin{array}{c}x\\y\end{array}\right)= \left(\begin{array}{c}0\\0\end{array}\right),$$ donde podemos ver que esto corresponde exactamente a una única ecuación $$-2x-y=0.\qquad (2)$$ Y, de manera similar para $\lambda_2=1$ El sistema debe ser $$\left(\begin{array}{cc}1&-1\\-2&2\end{array}\right) \left(\begin{array}{c}x\\y\end{array}\right)= \left(\begin{array}{c}0\\0\end{array}\right).$$
Aquí puedes ver dos ecuaciones: $$x-y=0,\qquad (3)$$ y $$-2x+2y=0.\qquad (4)$$ Pero la ecuación $(4)$ no es muy diferente ya que al multiplicar $(3)$ con $-2$ se obtiene $(4)$ .

Esto no es extraño ya que ambos valores propios fueron elegidos para dar un sistema lineal homogéneo con matriz $\lambda1\!\!1-A$ y $\det(\lambda1\!\!1-A)=0$ , lo que significa que sus filas son linealmente dependientes, dándole la ventaja de resolver sólo una de las dos ecuaciones para encontrar el correspondiente vector propio.

1 votos

¿Puede dar un contraejemplo de cuándo debe comprobar más de una ecuación?

0 votos

Sí puedo, pero hay que tomar una $3\times 3$ matriz

0 votos

Para el ejemplo que desea, en el que hay que comprobar más de una ecuación para llegar a un vector propio, tome $$\left(\begin{array}{ccc}2&1&-1\\0&2&0\\0&0&3\end{array}\right)$$ @MathNewb

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X