85 votos

¿Son siempre ortogonales todos los vectores propios de cualquier matriz?

Tengo una pregunta muy sencilla que se puede plantear sin pruebas. ¿Son todos los vectores propios, de cualquier matriz, siempre ortogonales? Estoy tratando de entender los componentes principales y es crucial para mí ver la base de los vectores propios.

78voto

Yue Tyler Jin Puntos 451

En general, para cualquier matriz, los vectores propios NO son siempre ortogonales. Pero para un tipo especial de matriz, la matriz simétrica, los valores propios son siempre reales y los correspondientes vectores propios son siempre ortogonales.

Para cualquier matriz M con n filas y m columnas, M se multiplica con su transpuesto, ya sea M*M' o M'M, da como resultado una matriz simétrica, por lo que para esta matriz simétrica, los vectores propios son siempre ortogonales.

En la aplicación del PCA, un conjunto de datos de n muestras con m características suele representarse en una matriz n* m D. La varianza y la covarianza entre esas m características pueden representarse mediante una matriz m*m D'*D, que es simétrica (los números de la diagonal representan la varianza de cada característica individual, y el número de la fila i columna j representa la covarianza entre la característica i y la j). El ACP se aplica a esta matriz simétrica, por lo que se garantiza que los vectores propios son ortogonales.

34voto

Kent Puntos 201

Fijar dos vectores linealmente independientes $u$ et $v$ en $\mathbb{R}^2$ , defina $Tu=u$ et $Tv=2v$ . A continuación, extienda linealmente $T$ a un mapa de $\mathbb{R}^n$ a sí mismo. Los vectores propios de $T$ son $u$ et $v$ (o cualquier otro). Por supuesto, $u$ no necesita ser perpendicular a $v$ .

9voto

Jai Vrat Singh Puntos 29

No necesariamente todos son ortogonales. Sin embargo, dos vectores propios correspondientes a valores propios diferentes son ortogonales.

Por ejemplo $X_1$ et $X_2$ sean dos vectores propios de una matriz $A$ correspondiente a los valores propios $\lambda_1 $ et $\lambda_2$ donde $\lambda_1 \ne \lambda_2$ .

Ahora,

$AX_1 = \lambda_1 X_1$ et $AX_2 = \lambda_2 X_2$ .

Tomando la transposición de la primera,

$ \begin{align} &(AX_1)^T = (\lambda_1 X_1)^T\\ \implies & X_1^TA^T = \lambda_1 X_1^T\\ \implies &X_1^TA^TX_2 = \lambda_1 X_1^T X_2\\ \implies & X_1^T\lambda_2 X_2 = \lambda_1 X_1^T X_2\\ \implies &\lambda_2X_1^T X_2 = \lambda_1 X_1^T X_2\\ \implies &(\lambda_2 - \lambda_1)X_1^T X_2 = 0\\ \end{align} $

Desde $\lambda_2 \ne \lambda_1$ , $X_1^T X_2 $ debe ser $0$ . Esto establece la ortogonalidad de los vectores propios correspondientes a dos valores propios diferentes.

5voto

user101089 Puntos 108

En el contexto del ACP: suele aplicarse a una matriz semidefinida positiva, como un producto cruzado de matrices, $X ' X$ o una matriz de covarianza o correlación.

En este caso de PSD, todos los valores propios, $\lambda_i \ge 0$ y si $\lambda_i \ne \lambda_j$ , entonces los correspondientes vectores eiven son ortogonales. Si $\lambda_i = \lambda_j$ entonces dos vectores ortogonales cualesquiera sirven como vectores propios de ese subespacio.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X