He visto algunos excelentes posts explicando el PCA y por qué bajo este enfoque los eigenvectores de una matriz de correlación (simétrica) son ortogonales. También entiendo las maneras de demostrar que tales vectores son ortogonales entre sí (por ejemplo, tomando el producto cruz de la matriz de estos eigenvectores resultará en una matriz con entradas fuera de la diagonal que son cero).
Mi primera pregunta es, cuando miras las correlaciones de los eigenvectores de un PCA, ¿por qué las entradas fuera de la diagonal de la matriz de correlación no son cero (es decir, cómo pueden los eigenvectores estar correlacionados si son ortogonales)?
Esta pregunta no es directamente sobre el PCA, pero la puse en este contexto ya que es cómo me encontré con el problema. Estoy usando R y específicamente el paquete psych para correr el PCA.
Si ayuda tener un ejemplo, este post en StackOverflow tiene uno que es muy conveniente y relacionado (también en R). En este post, el autor de la mejor respuesta muestra que las cargas del PCA (eigenvectores) son ortogonales usando Congruencia de Factores o productos cruzados. En su ejemplo, la matriz L
es la matriz de cargas del PCA. Lo único que no está en este enlace es que cor(L)
producirá la salida sobre la que estoy preguntando mostrando las correlaciones no-cero entre los eigenvectores.
Estoy especialmente confundido acerca de cómo los vectores ortogonales pueden estar correlacionados después de leer este post, que parece probar que la ortogonalidad es equivalente a la falta de correlación: ¿Por qué son ortogonales los eigenvectores del PCA y cuál es la relación con los puntajes del PCA siendo no correlacionados?
Mi segunda pregunta es: cuando los eigenvectores del PCA son usados para calcular los puntajes del PCA, los puntajes mismos son no correlacionados (como esperaba)... ¿hay una conexión con mi primera pregunta sobre esto, por qué los eigenvectores están correlacionados pero no los puntajes?
1 votos
Parece que estás calculando la matriz de correlación de los eigenvectores. Los eigenvectores son ortogonales, lo que implica que los productos punto entre ellos son cero, no las correlaciones. Lo que debe ser no correlacionado son las proyecciones de los datos sobre los eigenvectores, no los eigenvectores en sí mismos.
1 votos
Los eigenvectores son simplemente cantidades fijas, no variables aleatorias. No tiene sentido hablar de correlaciones entre ellos porque no fluctúan.
3 votos
La clave es que los autovectores no tienen media cero (por ejemplo, es completamente posible que todos los elementos de un autovector sean positivos). Por lo tanto, el hecho de que sean ortogonales no implica que sus elementos no estén correlacionados (para calcular la correlación necesitamos restar las medias).
2 votos
@Moss Por el contrario, los eigenvectores generados por PCA, dado que son funciones de los datos, son de hecho variables aleatorias. Eso podría ser lo que está causando confusión porque ahora la "ortogonalidad... de los eigenvectores" tiene múltiples interpretaciones: ortogonalidad como vectores euclídeos, falta de correlación de sus componentes (como variables aleatorias) e incluso ortogonalidad de los eigenvectores de la verdadera distribución multivariante subyacente que se presume genera los datos.
0 votos
@whuber: Eso tiene sentido. Estaba pensando en los autovectores como un parámetro en lugar de como una estadística.
0 votos
Vea también mi respuesta sobre la relación entre ortogonalidad y correlación.