Tengo una pregunta muy sencilla que se puede plantear sin pruebas. ¿Son todos los vectores propios, de cualquier matriz, siempre ortogonales? Estoy tratando de entender los componentes principales y es crucial para mí ver la base de los vectores propios.
Respuestas
¿Demasiados anuncios?En general, para cualquier matriz, los vectores propios NO son siempre ortogonales. Pero para un tipo especial de matriz, la matriz simétrica, los valores propios son siempre reales y los correspondientes vectores propios son siempre ortogonales.
Para cualquier matriz M con n filas y m columnas, M se multiplica con su transpuesto, ya sea M*M' o M'M, da como resultado una matriz simétrica, por lo que para esta matriz simétrica, los vectores propios son siempre ortogonales.
En la aplicación del PCA, un conjunto de datos de n muestras con m características suele representarse en una matriz n* m D. La varianza y la covarianza entre esas m características pueden representarse mediante una matriz m*m D'*D, que es simétrica (los números de la diagonal representan la varianza de cada característica individual, y el número de la fila i columna j representa la covarianza entre la característica i y la j). El ACP se aplica a esta matriz simétrica, por lo que se garantiza que los vectores propios son ortogonales.
Fijar dos vectores linealmente independientes $u$ et $v$ en $\mathbb{R}^2$ , defina $Tu=u$ et $Tv=2v$ . A continuación, extienda linealmente $T$ a un mapa de $\mathbb{R}^n$ a sí mismo. Los vectores propios de $T$ son $u$ et $v$ (o cualquier otro). Por supuesto, $u$ no necesita ser perpendicular a $v$ .
No necesariamente todos son ortogonales. Sin embargo, dos vectores propios correspondientes a valores propios diferentes son ortogonales.
Por ejemplo $X_1$ et $X_2$ sean dos vectores propios de una matriz $A$ correspondiente a los valores propios $\lambda_1 $ et $\lambda_2$ donde $\lambda_1 \ne \lambda_2$ .
Ahora,
$AX_1 = \lambda_1 X_1$ et $AX_2 = \lambda_2 X_2$ .
Tomando la transposición de la primera,
$ \begin{align} &(AX_1)^T = (\lambda_1 X_1)^T\\ \implies & X_1^TA^T = \lambda_1 X_1^T\\ \implies &X_1^TA^TX_2 = \lambda_1 X_1^T X_2\\ \implies & X_1^T\lambda_2 X_2 = \lambda_1 X_1^T X_2\\ \implies &\lambda_2X_1^T X_2 = \lambda_1 X_1^T X_2\\ \implies &(\lambda_2 - \lambda_1)X_1^T X_2 = 0\\ \end{align} $
Desde $\lambda_2 \ne \lambda_1$ , $X_1^T X_2 $ debe ser $0$ . Esto establece la ortogonalidad de los vectores propios correspondientes a dos valores propios diferentes.
En el contexto del ACP: suele aplicarse a una matriz semidefinida positiva, como un producto cruzado de matrices, $X ' X$ o una matriz de covarianza o correlación.
En este caso de PSD, todos los valores propios, $\lambda_i \ge 0$ y si $\lambda_i \ne \lambda_j$ , entonces los correspondientes vectores eiven son ortogonales. Si $\lambda_i = \lambda_j$ entonces dos vectores ortogonales cualesquiera sirven como vectores propios de ese subespacio.