7 votos

Importancia de los factores para el modelo de factores

Estoy trabajando con un modelo de factor dado de la forma $$y=B x +\epsilon$$ donde $x$ es un vector aleatorio en $R^M$ , $B$ es un $N\times M$ matriz de cargas factoriales, $y$ es un vector aleatorio en $R^N$ (con $N \gg M$ ) y $\epsilon$ es un vector de innovaciones de media cero, independiente de $x$ . Para simplificar, las innovaciones se distribuyen normalmente y son independientes entre sí. Mi pregunta es relativamente sencilla de plantear: ¿Cómo puedo comprobar si un factor es significativo, en el mismo sentido en que un predictor es significativo en la regresión lineal?

Aclaración : Tal vez debería haber hecho hincapié en que estoy trabajando con un dado modelo, y tengo que evaluar el valor predictivo de cada factor del modelo. En otras palabras, ¿existe una forma sencilla de evaluar si la eliminación de un factor de un modelo supondría una pérdida de poder predictivo? sin ¿comparar dos modelos diferentes con y sin el factor? En este último caso, existe una gran cantidad de literatura sobre la selección de modelos, basada en ML, GMM, etc. (La invariancia rotacional de los modelos factoriales no juega un papel esencial, por cierto).

10voto

MGOwen Puntos 122

Hablando a nivel práctico, en mi disciplina (psicología) nunca he visto que se haga esto para el análisis factorial puro.

Dicho esto, la significación (el ajuste, en realidad) de un modelo estadístico se comprueba normalmente mediante el uso de la modelización de ecuaciones estructurales, en la que se intenta reproducir la matriz de datos observada a partir de la estructura que se ha propuesto mediante el uso del análisis factorial.

Los paquetes SEM, lavaan u OpenMx para R lo harán.

Técnicamente, la prueba de Chi cuadrado le dirá si un modelo factorial se ajusta perfectamente, pero esta estadística es casi siempre significativa con cualquier tamaño de muestra apreciable (más de 200).

El paquete psych para R también ofrece el Criterio de Información Bayesiano como medida de ajuste después de especificar un modelo factorial, pero no estoy seguro de su utilidad.

1voto

Fossmo Puntos 1448

Si el problema en cuestión consiste en probar el número óptimo de factores, Jushan Bai y Serena Ng proporcionan en varios artículos una prueba basada en el AIC/BIC que minimiza, para diferentes opciones, la varianza del error. Aportan, hasta donde yo sé, el enfoque más actualizado para resolver esta cuestión. Véase también Alexei Onatski, que utiliza un método diferente basado en los valores propios de la matriz de covarianza del factor.

1voto

La respuesta corta es: Hay algo que se puede hacer, pero no estoy seguro de que tenga sentido.

La respuesta larga: Daré la respuesta larga para un modelo sencillo en el que sólo tenemos un factor latente desconocido. La idea se traslada al caso más general, aunque con más complicaciones. De su modelo de factores se deduce que:

$E(y) = B E(x)$ et

$Var(y) = B^T B Var(x) + \sigma^2$

(Nota: Tenga en cuenta que en este modelo simplificado: $x$ es un escalar estamos tratando con un solo factor).

Dado que los datos se distribuyen normalmente, las dos ecuaciones anteriores determinan su función de probabilidad.

Sin embargo, tenga en cuenta que tiene problemas de identificación aquí, ya que tiene que estimar $B$ y $x$ simultáneamente. La forma tradicional de resolver el problema de la identificación es asumir que:

$B(1) = 1$

(es decir, fijar la carga del factor del primer elemento en 1. De lo contrario, podemos escalar $B$ por $\alpha$ y escala $E(x)$ por $\frac{1}{\alpha}$ y obtener una E(y) idéntica).

De ello se desprende que:

E(x) = E(y(1))

En otras palabras, la restricción de identificación anterior sobre B ha restringido efectivamente la media de nuestro factor para ser la media de la muestra de nuestra primera variable dependiente (es decir, y(1)).

Por razones similares, suponemos que:

$Var(x) = 1$

(De lo contrario, se podría escalar $B$ por $\sqrt{\alpha}$ y escala $Var(x)$ por $\frac{1}{\alpha}$ y su función de probabilidad no cambiará).

Dado que imponemos una restricción de identificación en la distribución de x (que en cierto sentido es arbitraria) no estoy seguro de que tenga sentido realizar pruebas estadísticas para un factor.

Podría calcular las puntuaciones de los factores y realizar pruebas estadísticas estándar utilizando la media de $E(x) = E(y(1))$ y $Var(x) = 1$ .

Por lo tanto, la respuesta a su pregunta depende de:

¿Es la conclusión de la prueba estadística anterior invariable a su elección de restricciones de identificación?

No sé la respuesta a la pregunta anterior.

0voto

btbytes Puntos 35

No estoy seguro de haber entendido bien su pregunta, pero si ya tienes un número de factores exactos, supongo que puedes usar la prueba de chi-cuadrado para ver si la carga del factor de su preocupación es significativa como hacemos en la Regresión Múltiple.

Así que aquí asumo que sabes de antemano el valor exacto de los factores y la variable criterio, es muy parecido a la regresión múltiple.

Si tiene múltiples variables de criterio, entonces podría querer probar si las cargas factoriales de un factor específico son significativamente diferentes para (0,0,0, ...,0). Podemos abordar este problema con el punto de vista de la comparación múltiple o multivariante.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X