1 votos

¿Cuál es la relación entre la desviación estándar de un intercepto aleatorio y el valor del escalar entero?

Ajusté un modelo de regresión logística de efectos mixtos en R con la siguiente fórmula:

glmer.traditional <- glmer(AGENT.EXPONENCE ~ ASPECT + (1 | LEMMA), data = hdtpassive, family = binomial(link="logit"))

La desviación estándar del intercepto aleatorio es realmente alta:

Random effects:
Groups Name        Variance Std.Dev.
LEMMA  (Intercept) 400.4    20.01   
Number of obs: 438, groups:  LEMMA, 174

Sin embargo, cuando utilizo la siguiente fórmula, la desviación estándar cae en picado:

glmer.traditional <- glmer(AGENT.EXPONENCE ~ ASPECT + (1 | LEMMA), data = hdtpassive, family = binomial(link="logit"), control = glmerControl(optimizer = "bobyqa"), nAGQ = 25)

Random effects:
Groups Name        Variance Std.Dev.
LEMMA  (Intercept) 27.28    5.223   
Number of obs: 438, groups:  LEMMA, 174

El nAGQ es el escalar que se utiliza para aproximar la log-verosimilitud. Los valores más altos de este argumento producen aproximaciones más precisas, pero a costa de la velocidad.

Tengo dos preguntas al respecto:

  1. ¿Cómo afecta el valor del escalar entero a la desviación estándar del intercepto aleatorio? No sé cómo funciona la cuadratura de Gauss-Hermite.

  2. ¿Existen directrices sobre la interpretación de las desviaciones estándar de los interceptos aleatorios? Por ejemplo, ¿una desviación estándar muy alta es una señal de advertencia de algún tipo?

0voto

Martin Puntos 563

Esta respuesta es más bien un punto de partida para aquellos más experimentados que yo. Sólo hice una investigación preliminar, para aquellos que puedan estar interesados. Para responder a la pregunta (1), tirando de el glmer documentación ...

nAGQ Escalar entero - el número de puntos por eje para evaluar la aproximación adaptativa de Gauss-Hermite a la log-verosimilitud. Por defecto es 1, correspondiente a la aproximación de Laplace. Los valores superiores a 1 producen una mayor precisión en la evaluación de la log-verosimilitud a expensas de la velocidad. Un valor de cero utiliza una forma más rápida pero menos exacta de estimación de parámetros para GLMMs optimizando los efectos aleatorios y los coeficientes de efectos fijos en el paso de mínimos cuadrados iterativos penalizados.

Por lo tanto, el aumento de nAGQ (i) tardará más, y (ii) aumentará la precisión de la evaluación de la log-verosimilitud.

Se puede ver una respuesta a la parte (2) en este hilo . Una explicación del término de intercepción en sí mismo se ve aquí . En los comentarios se señala que:

"Si todas las variables, tanto las predictoras como las de respuesta, están centradas, entonces no se necesita el término de intercepción. En su lugar, se quita 1 df para el residuo debido al centrado de la variable de respuesta. Una vez hecho todo eso, es equivalente a incluir el intercepto en el modelo en el que las variables no están centradas."

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X