2 votos

Análisis factorial exploratorio: ¿Hay que utilizar las puntuaciones factoriales o la media de los ítems?

Cuando intentamos medir un constructo latente (llamémoslo $C$ ), a menudo damos a la gente una serie de artículos $X$ que rellenar (llamémoslas $x_1, ..., x_q$ donde $q$ es el número de ítems) que suponemos miden este constructo latente $C$ .

Supongamos que todos $x_i$ son una medida válida de $C$ .

Cuando hacemos un análisis factorial exploratorio (como solemos hacer en mi campo, la psicología) o un análisis de componentes principales (como su sustituto), tendemos a fijarnos en si todos los ítems "van juntos" (muy cargados) en un factor. Supongamos que es así.

El analista tiene ahora una opción. ¿Cómo se aproximan los artículos $C$ dado todo el $x$ s? Veo dos grandes opciones para estimar el valor de $C$ para una persona:

  1. Calcula la media de todas las partidas
  2. Guardar puntuación del factor

La primera opción se utiliza en el 100% de los estudios que he leído. Mi pregunta:

¿Es más preciso utilizar puntuaciones factoriales que promediar los elementos juntos? como estimación del valor de construcción?

He intentado llegar a esto con un ejemplo de simulación muy sencillo. El código es:

library(tidyverse)
library(psych)
set.seed(1839)

fscores_diff <- c(0) # initialize empty vector
average_diff <- c(0) # initialize empty vector

for (i in 1:10000) {
  # make data
  dat <- tibble(
    X = rnorm(100), # latent construct
    x1 = 2*X + rnorm(100), # item 1
    x2 = 2*X + rnorm(100), # item 2
    x3 = 2*X + rnorm(100), # item 3
    x4 = 2*X + rnorm(100), # item 4
    Y = .5*X + rnorm(100, 0, 5) # DV influenced by latent construct
  )
  efa <- fa(cor(dat[,2:5]), fm="pa") # factor analysis
  dat <- dat %>% 
    mutate(
      X_fscores = factor.scores(dat[,2:5], efa, method="tenBerge")$scores, # save factor scores
      X_average = (x1 + x2 + x3 + x4)/4 # make average
    )
  actual_cor <- cor(dat)[1,6] # extract actual correlation between latent construct and DV
  fscores_cor <- cor(dat)[7,6] # extract correlation between factor and DV
  average_cor <- cor(dat)[8,6] # extract correlation between mean and DV

  # add differences to vectors
  fscores_diff[i] <- actual_cor - fscores_cor
  average_diff[i] <- actual_cor - average_cor

  # for checking progress
  if (i %% 100 == 0) {
    print(i)
  }
}

He aquí el aspecto de las correlaciones en el primer bucle:

  • Correlación real: .170
  • Correlación al aproximar $X$ puntuación del factor de utilización: .164
  • ...utilizando la media de los ítems: .163

Y he aquí el resumen estadístico de la diferencia entre lo real y las aproximaciones:

> # about the same difference
> mean(fscores_diff)
[1] 0.002969406
> mean(average_diff)
[1] 0.002908312
> 
> # about the same variance, as well
> sd(fscores_diff)
[1] 0.02516624
> sd(average_diff)
[1] 0.02469756

Sin embargo, mi ejemplo se basa en un número concreto de variables y se cumplen todos los supuestos de un análisis factorial. Además, especifiqué que cada elemento estaba influido por igual por $C$ . Tengo algunos problemas con el fa al estimarla de otro modo.

¿Alguien conoce algún documento que aborde esta cuestión? ¿Hay alguna ventaja en utilizar puntuaciones factoriales en lugar de promedios entre los ítems?

1voto

dbp Puntos 6

Podría decirse que el análisis de componentes principales se introdujo hace mucho tiempo exactamente para resolver la situación que usted describe: si cada una de las medidas $x_i$ es un sustituto de algún "valor de interés" existente pero inaccesible (usted lo llama $X$ ), ¿cómo construir la mejor estimación para este valor?

Por lo tanto, el artículo que responde a su pregunta sería uno de los artículos originales que introducen el ACP. Creo que ellos (Galton, y más tarde Pearson y Spearman) buscaban el CI (una variable oculta), o lo que ellos llamaban G (inteligencia general) basándose en observaciones "indirectas" de los resultados de los tests. El sitio artículo original de Pearson publicado en 1901 no describe esta aplicación del análisis factorial, sino sólo las matemáticas del mismo, pero Spearman 1904 debería describir la mayor parte de la lógica que le interesa.

En cuanto a promediar, promediar es sencillo. Siempre hay un equilibrio entre medir algo de la mejor manera posible y explicar los resultados de la forma más sencilla posible. Promediar es más sencillo y fácil de explicar; la gente puede sospechar si se utiliza PCA, una técnica más "sofisticada", sin la debida justificación. ¿Intenta falsear los datos? ¿Sus valores p son más bajos si indica el primer componente en lugar de la media? ¿O se ha dado cuenta demasiado tarde de que su cuestionario es demasiado vago y espera que las estadísticas le ayuden? Pero, ¿y si el primer componente no es en realidad la media? $X$ ¿Y si se trata de algo no relacionado $Y$ ?

Me gusta mucho la idea de usar el 1er componente en tu escenario, y definitivamente reportaría el 2do también, sólo por diversión, aunque sólo sea para confirmar que no describió mucho. Pero hay que racionalizarlo de forma muy transparente.

EDIT: Tengo que confesar que me enseñaron que FA es un concepto, mientras que PCA es una de las posibles implementaciones de este concepto (otros son, por ejemplo, PCA con rotación varimax, ICA, técnicas bayesianas, modelado explícito con restricciones sobre factores latentes, enfoques no lineales, etc.) Mucha gente, sin embargo, establece una clara distinción entre FA y PCA, tratándolos como métodos diferentes y bien definidos. En el subcampo de la neurociencia en el que me muevo, suelo ver cómo se realiza un ACP para lo que, en esencia, es un AF exploratorio. Y entonces los investigadores esperaban, planteaban hipótesis o se aseguraban (dependiendo de la situación y de la información disponible) de que el componente principal (o, más a menudo, una combinación lineal de varios componentes principales) que encontraban se aproximaría al constructo latente que buscaban.

Volviendo a hablar de historia, originalmente, en la época de Spearman-Pearson, PCA y FA se consideraban dos aspectos de la misma técnica: la gente utilizaba un término u otro no sobre la base de supuestos matemáticos, sino en función de la cuestión filosófica planteada en el estudio: llamaban a la técnica PCA cuando reconstruían señales reales tras observar su combinación lineal, y FA cuando exploraban señales hipotéticas. Más tarde, en la década de 1930, las matemáticas en las que se basaba el AF se desarrollaron más allá del PCA original, por lo que las convenciones de nomenclatura divergieron. Pero hoy en día parece que se vuelven a utilizar ambos términos indistintamente, al menos en mi campo.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X