5 votos

¿Cómo se demuestra que la rotación Quartimax/Varimax converge?

Empíricamente la rotación quartimax-/varimax- ha demostrado ser útil y siempre fue convergente en mis aplicaciones. Pero de mis lecturas de hace años (las monografías más destacadas de S.Mulaik y K.Überla sobre nálisis de factores) tengo un vago recuerdo de que se ha mencionado el hecho de una prueba de convergencia, pero nunca he visto la prueba real.

Tal vez esto no sea difícil y se pueda hacer aquí, o ¿alguien tiene una referencia?

Lo que realmente busco es la prueba para la "inversa" del cuatrimestre: donde la rotación se define para el minimizar (en lugar de la maximización) del criterio; espero poder utilizar directamente la prueba de convergencia quartimax o al menos tener un camino de cómo proceder con tal prueba por mi cuenta...


[Actualización] Hmm, tengo alguna pista de los artículos de ten Berge(1995, 60(3)) y de Jennrich(2001, 66(2)) (ambos aparecidos en "Psychometrika" hace ese par de años), que parecen tratar de problemas de la convergencia de esa rotación - así que esto parece no ser trivial (o tan fácil como esperaba que fuera)...

(Por desgracia, no tendré acceso a nuestra biblioteca antes del lunes)

[actualización tardía]: Debería haber añadido, que también he tratado de conseguir más referencias en mathoverflow y dio un poco más de discusión en esta pregunta Sin embargo, también sin resultados concluyentes.

1voto

kcrumley Puntos 2495

Trabajar con matrices de vectores propios ortogonales M (creadas como matrices de rotación aleatorias) una secuencia de experimentos sugirió que la rotación "varimin" (que sólo minimiza el mismo criterio que maximiza "varimax") puede toparse con extremos locales y perder el mínimo global, y lo hace con más frecuencia a medida que aumenta el tamaño de la matriz.

Utilicé 4x4 hasta 22x22 matrices M y produjo 1000 y más ejemplos creados al azar del mismo tamaño, tratando de rotarlos a la "varianza mínima de la matriz-entrada al cuadrado".

  • Para las tallas n=4k la rotación "varimin" encontrada siempre las versiones de la matriz "Hadamard".

  • Para las tallas n=4k+2 que la rotación encontró a veces las "Matrices de pesaje" con entradas de $(1,0,-1)$ (cuando se reescalan adecuadamente). Sin embargo, cuando la dimensión pasó a 18x18 Sólo obtuve esas soluciones ideales en aproximadamente el 2% de los ejemplos aleatorios; y para 22x22 matrices que era aún menos frecuente.
    Aquí comprobé la mejora de los criterios de rotación para cada iteración y me detuve, cuando la mejora se volvió sólo marginal pero la distancia de las versiones óptimas todavía estaba lejos.

  • Para las tallas n x n con n=2k+1 las rotaciones encontraron a veces versiones que recordaban a las matrices de Hadamard- resp. Pesar-, sin embargo tenían 4,5 o más entradas diferentes. Por ejemplo, para n=13 Me metí en 80 Porcentaje de todos los ejemplos de matrices rotadas con sólo 4 entradas significativamente diferentes en la forma $(1,a,-a,-1)$ pero para n=11 ese resultado sólo se produjo en el 1 o 2 por ciento de los ejemplos.

Pues bien, consideré entonces que posiblemente tales ejemplos, que no giraban a la estructura "simple" de la matriz de Hadamard o de Ponderación teniendo $(1,-1)$ o $(1,0,-1)$ o al menos tener soluciones de pocas categorías como $(1,a,-a,-1)$ son incompatibles con tales soluciones óptimas. Pero para los tamaños de las matrices ( n=4k+2 ) para el cual obtuve ambos tipos de resultados, también los malos resultados pudieron ser transformados a una solución ideal con sólo la rotación (correcta).

La última observación me permite conjeturar, que efectivamente "varimin" es no garantizado para encontrar la solución con la menor varianza en las entradas de la matriz al cuadrado, y lo mismo debería ser válido para la rotación "varimax" en su intención de encontrar la varianza máxima.

Pues bien, estos experimentos se hicieron con matrices aleatorias ortogonales, que son también matrices de vectores propios para las matrices de correlación. La rotación en el análisis de factores/componentes suele hacerse sobre cargas que son entradas reescaladas de los vectores propios - pero también hay paquetes de software que efectivamente giran sobre los vectores propios.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X