Ajusté un modelo de regresión logística de efectos mixtos en R con la siguiente fórmula:
glmer.traditional <- glmer(AGENT.EXPONENCE ~ ASPECT + (1 | LEMMA), data = hdtpassive, family = binomial(link="logit"))
La desviación estándar del intercepto aleatorio es realmente alta:
Random effects:
Groups Name Variance Std.Dev.
LEMMA (Intercept) 400.4 20.01
Number of obs: 438, groups: LEMMA, 174
Sin embargo, cuando utilizo la siguiente fórmula, la desviación estándar cae en picado:
glmer.traditional <- glmer(AGENT.EXPONENCE ~ ASPECT + (1 | LEMMA), data = hdtpassive, family = binomial(link="logit"), control = glmerControl(optimizer = "bobyqa"), nAGQ = 25)
Random effects:
Groups Name Variance Std.Dev.
LEMMA (Intercept) 27.28 5.223
Number of obs: 438, groups: LEMMA, 174
El nAGQ
es el escalar que se utiliza para aproximar la log-verosimilitud. Los valores más altos de este argumento producen aproximaciones más precisas, pero a costa de la velocidad.
Tengo dos preguntas al respecto:
-
¿Cómo afecta el valor del escalar entero a la desviación estándar del intercepto aleatorio? No sé cómo funciona la cuadratura de Gauss-Hermite.
-
¿Existen directrices sobre la interpretación de las desviaciones estándar de los interceptos aleatorios? Por ejemplo, ¿una desviación estándar muy alta es una señal de advertencia de algún tipo?