Lo siguiente es de un libro de texto una estadística bayesiana. que no puedo entender alguna deducción. Es relevante acerca de múltiples parámetros a estimar.
La j-ésima observación en el i-ésimo grupo se denota por $y_{ij}$ ,
donde
$$(y_{ij}|\mu_i,\sigma)\sim N(\mu_i,\sigma^2) \quad j=1,2, \dots, n_i \quad i= 1,2, \dots, m$$
También el $y_{ij}$ son independientes entre sí.
Supongamos que $\mu_i \sim N(\mu,\tau^2)$ y denotamos
$$\theta= (\mu, \log(\sigma),\log(\tau))$$ $$Y=\{y_{ij}: j=1,\dots, n_i, i=1,\dots, n\}$$ $$Z=(\mu_1,\dots, \mu_m)$$ $$n=n_1+n_2+\cdots +n_m$$
Así que $\theta$ son los parámetros desconocidos interesados. Tomemos su distribución a priori como $p(\theta) \propto \tau$ . Entonces, por la regla de Bayes, no es difícil obtener la distribución posterior:
$$p(Z,\theta|Y) \propto p(\theta) \prod\limits_{i = 1}^m {p(\mu_i|\mu,\tau)} \prod\limits_{i = 1}^m \prod\limits_{j = 1}^{n_i} {p(y_{ij}|\mu_i,\sigma)}$$
Este es el lugar que no puedo entender. Cómo obtener esta fórmula si No.3 fórmula no es correcta en este hilo: Estoy confundido sobre la regla de Bayes en MCMC
¿Podría alguien explicarlo con detalle? Si hay algún libro excelente que pueda ayudarme, por favor, indíquelo.