Supongamos que dispone de datos sobre yit : resultado y de la unidad i a la vez t . Se ajusta un modelo de intercepción variable (jerárquico): yit∼Normal(μi,σy)μi∼Normal(0,ψμ)σy∼Cauchy(0,1)ψμ∼Cauchy(0,1)
A menudo veo especificaciones en las que los efectos aleatorios μi siguen alguna distribución multivariante. La justificación suele ser que los efectos aleatorios están correlacionados de algún modo. Por ejemplo, https://cran.r-project.org/web/packages/brms/vignettes/brms_multivariate.html habla de la necesidad de correlacionar un montón de interceptos aleatorios y propone una distribución multivariante para ello.
Esto me desconcierta, ya que normalmente la justificación de la variación de los interceptos es que los resultados yit pueden estar correlacionados entre periodos de tiempo t pero no están correlacionados dentro de las unidades i . En consecuencia, incluir los efectos aleatorios en el modelo significa ahora que y son independientes entre sí. Si pensáramos que el ui estaban correlacionadas entre sí, entonces podríamos añadir otro conjunto de interceptos para modelar esas correlaciones de nivel superior. Sin embargo, ¡no suele ser el caso!
Entonces, ¿por qué la gente no utiliza probabilidades/prioridades normales univariantes en lugar de multivariantes?