El truco general es, como se menciona en otra respuesta es que la fórmula sigue la forma dependent ~ independent | grouping
. El grouping
es generalmente un factor aleatorio, puede incluir factores fijos sin ninguna agrupación y puede tener factores aleatorios adicionales sin ningún factor fijo (un modelo de sólo intercepción). A +
entre factores indica que no hay interacción, un *
indica interacción.
Para los factores aleatorios, hay tres variantes básicas:
- Intercepta sólo por el factor aleatorio:
(1 | random.factor)
- Pendientes sólo por el factor aleatorio:
(0 + fixed.factor | random.factor)
- Interceptos y pendientes por factor aleatorio:
(1 + fixed.factor | random.factor)
Obsérvese que la variante 3 tiene la pendiente y el intercepto calculados en la misma agrupación, es decir, al mismo tiempo. Si queremos que la pendiente y el intercepto se calculen de forma independiente, es decir, sin ninguna supuesta correlación entre ambos, necesitamos una cuarta variante:
- Intercepción y pendiente, por separado, por factor aleatorio:
(1 | random.factor) + (0 + fixed.factor | random.factor)
. Una forma alternativa de escribirlo es utilizando la notación de doble barra fixed.factor + (fixed.factor || random.factor)
.
También hay un buen resumen en otra respuesta a esta pregunta que deberías mirar.
Si te apetece profundizar un poco en las matemáticas, Barr et al. (2013) resumen el lmer
sintaxis bastante bien en su Tabla 1, adaptada aquí para cumplir con las restricciones del markdown sin tablas. Ese artículo trataba de datos psicolingüísticos, por lo que los dos efectos aleatorios son Subject
et Item
.
Modelos y equivalentes lme4
sintaxis de la fórmula:
-
- $Y_{si} = β_0 + β_{1}X_{i} + e_{si}$
- N/A (No es un modelo de efectos mixtos)
-
- $Y_{si} = β_0 + S_{0s} + β_{1}X_{i} + e_{si} $
Y ∼ X+(1∣Subject)
-
- $Y_{si} = β_0 + S_{0s} + (β_{1} + S_{1s})X_i + e_{si}$
Y ∼ X+(1 + X∣Subject)
-
- $Y_{si} = β_0 + S_{0s} + I_{0i} + (β_{1} + S_{1s})X_i + e_{si}$
Y ∼ X+(1 + X∣Subject)+(1∣Item)
-
- $Y_{si} = β_0 + S_{0s} + I_{0i} + β_{1}X_{i} + e_{si}$
Y ∼ X+(1∣Subject)+(1∣Item)
-
- Como (4), pero $S_{0s}$ , $S_{1s}$ independiente
Y ∼ X+(1∣Subject)+(0 + X∣ Subject)+(1∣Item)
-
- $Y_{si} = β_0 + I_{0i} + (β_{1} + S_{1s})X_i + e_{si}$
Y ∼ X+(0 + X∣Subject)+(1∣Item)
Referencias:
Barr, Dale J, R. Levy, C. Scheepers y H. J. Tily (2013). Estructura de efectos aleatorios para pruebas de hipótesis confirmatorias: Mantener el máximo . Journal of Memory and Language, 68:255- 278.
3 votos
Sólo para enlazar a un hilo relacionado donde Mike Lawrence proporcionó un buen resumen de la fórmula de R para los modelos de efectos mixtos.