Supongamos que dispone de datos sobre $y_{it}$ : resultado $y$ de la unidad $i$ a la vez $t$ . Se ajusta un modelo de intercepción variable (jerárquico): $$y_{it} \sim Normal(\mu_{i}, \sigma_y)\\ \mu_i \sim Normal(0, \psi_{\mu})\\ \sigma_y \sim Cauchy(0,1)\\ \psi_{\mu} \sim Cauchy(0,1)\\ $$
A menudo veo especificaciones en las que los efectos aleatorios $\mu_i$ siguen alguna distribución multivariante. La justificación suele ser que los efectos aleatorios están correlacionados de algún modo. Por ejemplo, https://cran.r-project.org/web/packages/brms/vignettes/brms_multivariate.html habla de la necesidad de correlacionar un montón de interceptos aleatorios y propone una distribución multivariante para ello.
Esto me desconcierta, ya que normalmente la justificación de la variación de los interceptos es que los resultados $y_{it}$ pueden estar correlacionados entre periodos de tiempo $t$ pero no están correlacionados dentro de las unidades $i$ . En consecuencia, incluir los efectos aleatorios en el modelo significa ahora que $y$ son independientes entre sí. Si pensáramos que el $u_i$ estaban correlacionadas entre sí, entonces podríamos añadir otro conjunto de interceptos para modelar esas correlaciones de nivel superior. Sin embargo, ¡no suele ser el caso!
Entonces, ¿por qué la gente no utiliza probabilidades/prioridades normales univariantes en lugar de multivariantes?