En el análisis de componentes principales (ACP), se puede elegir entre la matriz de covarianzas o la matriz de correlaciones para hallar los componentes. Éstas dan resultados diferentes porque, sospecho, los vectores propios de ambas matrices no son iguales. Las matrices (matemáticamente) similares tienen los mismos valores propios, pero no necesariamente los mismos vectores propios. Varias preguntas: (1) ¿A qué se debe esta diferencia? (2) ¿Tiene sentido el ACP, si se pueden obtener dos respuestas diferentes? (3) ¿Cuál de los dos métodos es el "mejor"? (4) Dado que el ACP opera con datos brutos estandarizados (no) en ambos casos, es decir, escalados por su desviación estándar, ¿tiene sentido utilizar los resultados para sacar conclusiones sobre el predominio de la variación para los datos reales, no estandarizados?
Corrección a mi parte (4): "ambos casos" es incorrecto; las variables estandarizadas se utilizan en el ACP basado en la correlación, no en el basado en la covarianza. Pero la cuestión y la pregunta siguen en pie en el primer caso.
0 votos
Si las escalas por su desviación estándar, ¿no convierte eso la matriz de covarianza en una matriz de correlación?
0 votos
Se trata más bien de una pregunta estadística, por lo que es mejor plantearla en Cross Validated. Probablemente obtendrás más y mejores respuestas allí.
0 votos
Véase stats.stackexchange.com/questions/53/ y las preguntas vinculadas a él
0 votos
Hasta donde yo sé, a pesar de que los vectores propios puedan ser distintos, el subespacio generado por ellos (los dominantes) debería ser el mismo o cercano (bajo alguna métrica apropiada).