20 votos

¿Puede el vector cero ser un vector propio de una matriz?

Estaba revisando mi trabajo en WolfRamAlpha, y dice que uno de mis valores propios (este con multiplicidad 2), tiene un vector propio de (0,0,0). ¿Cómo puede el vector cero ser un vector propio?

7 votos

No puede. Por definición. Sin embargo, el eigenspace asociado a un valor propio siempre contiene el vector cero.

4 votos

El vector cero por convención no es un vector propio, de la misma manera que $1$ no es un número primo. Si dejamos que el cero sea un vector propio, tendríamos que decir repetidamente "suponer $v$ es un vector propio no nulo tal que..." ya que no nos interesa el vector cero. La razón es que $v=0$ es siempre una solución al sistema $Av = \lambda v$ .

0 votos

¿Entonces los valores propios con multiplicidad 2 no siempre tienen 2 vectores propios?

12voto

pooryorick Puntos 31

Como otros han escrito, los vectores propios suelen definirse (por ejemplo aquí (nótese la parte "no trivial") para excluir explícitamente el vector cero.

Como todas las definiciones de las matemáticas, se trata, por supuesto, de una convención. Sin embargo, como siempre, hay razones por las que esta convención tiene sentido: Muchas de las aplicaciones de la teoría espectral requieren la extracción de componentes escalares $x_i \rightarrow \lambda_i x_i$ de una transformación lineal representada por una multiplicación matricial $x \rightarrow A x$ ( análisis de componentes principales por si acaso $A$ es la matriz de covarianza de un vector aleatorio para alguna distribución de probabilidad multivariante). Aquí, $x_i$ es un vector propio para el valor propio $\lambda_i$ .

Si $0$ como un vector propio, de repente cada $\lambda \in \mathbb R$ sería un valor propio para él, haciendo que PCA no tenga sentido porque bajo su interpretación de los vectores propios de covarianza, ahora habría un "componente principal" (el vector cero) con una varianza indefinida.

8voto

littleO Puntos 12894

Tenga en cuenta que algunos autores permiten $0$ para ser un vector propio. Por ejemplo, en el libro Linear Algebra Done Right (que es muy popular), un eigenvector se define como sigue:

Supongamos que $T \in \mathcal L(V)$ y $\lambda \in \mathbf F$ es un valor propio de $T$ . Un vector $u \in V$ se llama vector propio de $T$ (correspondiente a $\lambda$ ) si $Tu = \lambda u$ .

El libro dice entonces,

...vemos que el conjunto de vectores propios de $T$ correspondiente a $\lambda$ es igual a $\text{null}(T - \lambda I)$ . En particular, el conjunto de vectores propios de $T$ correspondiente a $\lambda$ es un subespacio de $V$ .

Sin embargo, un valor propio se define como sigue:

un escalar $\lambda \in \mathbf F$ se llama valor propio de $T \in \mathcal L(V)$ si existe un vector no nulo $u \in V$ tal que $Tu = \lambda u$ . Debemos exigir $u$ sea distinto de cero porque con $u = 0$ cada escalar $\lambda \in \mathbf F$ satisface [la ecuación $Tu = \lambda u$ ].

Hoffman y Kunze, otro libro de álgebra lineal muy apreciado, también permite $0$ para ser un vector propio. (Véase la definición de "vector característico" en la sección 6.2, p. 182.)

0 votos

Si lambda denota sistemáticamente valores propios, y un valor sólo es un valor propio si la igualdad es verdadera para un vector distinto de cero, entonces parece que la igualdad dice que el vector cero no es un vector propio. Pero el vector cero está siempre en el espacio nulo de una matriz, que dicen que son todos los vectores propios. Así que o bien tienen una contradicción, o una notación inconsistente (a veces lambda es sólo un escalar y a veces es específicamente un valor propio).

0 votos

Nótese que la 3ª edición de Axler (Linear Algebra Done Right) sí define los vectores propios para excluir el 0.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X