8 votos

La intuición detrás de Correlación de los Términos en los Modelos de Efectos Mixtos

En la mezcla de modelos de efectos, se puede especificar una variable término de intersección y una variación de la pendiente plazo que covarían entre otros. La segunda a la última fila en esta viñeta por Douglas Bates muestra cómo especificar dicha interacción.

enter image description here

No tengo una comprensión intuitiva de lo que permite esta interacción significa.

1) ¿Qué es intuitivamente significa para permitir que estos coeficientes a covarían?

2) Si me introdujo otra variación de la pendiente $s_2$ plazo en el modelo, además de a $s_1$, lo que se intuitivamente significa para $s_1$ $s_2$ a variar?

3) por último, ¿qué recursos puedo utilizar para comprender mejor cómo realizar la inferencia en este tipo de correlaciones (de una manera similar a decir que la Inferencia en el modelo lineal mixto )?


Lo que sé:

Tengo una imprecisa la comprensión matemática de lo que las correlaciones entre los coeficientes de decir. En particular, he de reconocer que una variación de la pendiente de plazo y diferentes término de intersección son variables aleatorias, y así la definición habitual de la covarianza $E[(X - \mu_{X})(Y - \mu_{Y})]$ se aplica a ellos. También entiendo que el objetivo de la instalación de un modelo de efectos mixtos puede ser articulado como tratando de encontrar una matriz de covarianza, entre otros parámetros, que es la covarianza del vector de los coeficientes del modelo. Fuera de la diagonal en términos de la matriz de covarianza representan las correlaciones entre el modelo de coeficientes; por lo tanto, lo que permite (o prohibir) la correlación es equivalente a dejar el off-diagonal términos de ser distinto de cero (o $0$).

11voto

Ben Bolker Puntos 8729

Supongamos, por concreción, que tenemos un modelo

y ~ 1 + x1 + x2 + (1|g)

donde x1 y x2 son (por simplicidad) continuo de las variables predictoras (g es una categoría variable de agrupación). Este modelo establece que el valor esperado de y de cambios de forma lineal con los cambios en x1 y x2 , y que existen diferencias en la intercepción entre los grupos (es decir,$\hat y = (\beta_0+b_{0,i}) + \beta_1 x_1 + \beta_2 x_2$)$b_{0,i} \sim \textrm{Normal}(0,\sigma^2_0)$); que es lo que el 1 en (1|g) medios.

Si cambiamos el efecto aleatorio a (1|g) + (x1|g) + (x2|g) (términos), o, equivalentemente, (1+x1+x2||g), que especifica que el intercepto, la pendiente con respecto a la x1, y la pendiente con respecto a la x2 , varían a través de grupos, pero esta variación es independiente: podemos escribir el modelo como

$$ \begin{split} \hat y_{ij} & = (\beta_0 + b_{0,i}) + (\beta_1 + b_{1,i}) x_1 + (\beta_2 + b_{2,i}) x_2 \\ b_{0,i} & \sim \textrm{Normal}(0,\sigma^2_0) \\ b_{1,i} & \sim \textrm{Normal}(0,\sigma^2_1) \\ b_{2,i} & \sim \textrm{Normal}(0,\sigma^2_2) \quad . \end{split} $$

So a particular group might have a higher-than-average intercept, a lower-than-average response to $x_1$, and an average response to $x_2$, but all of these term-specific effects are independent of each other.

If we instead write (1+x1+x2|g), we can no longer specify models for $b_{k,i}$ separately: instead we have to write

$$ \boldsymbol b_i = \{b_{0,i}, b_{1,i}, b_{2} \} \sim \textrm{MVN}(\boldsymbol 0, \Sigma) $$

(where MVN is "multivariate normal"). Now in addition to the separate variances for each varying term ($\sigma^2_0$, $\sigma^2_1$, $\sigma^2_2$) we also have to specify the covariances or correlations ($\rho_{01}$, $\rho_{02}$, $\rho_{12}$). For example, suppose that $\rho_{12}$, the correlation between the $x_1$ and the $x_2$ slopes, is negative. That means that groups that respond strongly (positively) to changes in $x_1$ are likely to respond weakly, or even in the opposite direction, to changes in $x_2$ -- similar logic applies to $\rho_{01}$ and $\rho_{02}$ (correlations between among-group variation in the intercept and the two slopes).

You can compare the likelihood of a model with the full ("unstructured" or "general positive-definite") variance-covariance matrix to one with the diagonal (independent) variance-covariance matrix using likelihood ratio tests (or AIC): the independent-terms model is properly nested within the full model (i.e. starting with the full model and constraining $\rho_{01}=\rho_{02}=\rho_{12}$ gets you the reduced/nested model). Alternatively, you can find confidence intervals for individual $\rho_{ij}$ parámetros. (nlme::lme hace esto mediante el cálculo de intervalos de Wald en un restringido (hiperbólico tangente) de la escala y de la espalda-la transformación; lme4::lmer lo hace mediante el cálculo de la probabilidad de perfiles).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X