Muchos de los modelos jerárquicos bayesianos que estoy estudiando utilizan una cadena de Markov como modelo. Estos modelos jerárquicos utilizan diferentes técnicas MCMC para muestrear los parámetros de bajo y alto nivel. Mi pregunta es: ¿el uso de diferentes técnicas MCMC para diferentes parámetros afecta de alguna manera a la ergodicidad/convergencia de la cadena de Markov?
Por ejemplo, en Rasmussen 2000 modelo de mezcla gaussiana infinita :
- La varianza de los componentes gaussianos recibe una prioridad Gamma inversa, $p(\sigma^{-2}) \sim \mathcal{G}(\beta, w^-1)$ . Dentro de esto, el $\beta$ El hiper mismo recibe una prioridad Gamma inversa $\mathcal{G}(1,1)$ y la posterior condicional de $\beta$ se muestrea mediante el ARS.
- En su documento posterior sobre mezclas infinitas de expertos en procesos gaussianos También emplea un modelo jerárquico similar, en el que aprende los parámetros del núcleo mediante Hamiltonian Monte Carlo.
- Las variables indicadoras/latentes se muestrean mediante el muestreo de Gibbs.
- El parámetro de concentración del proceso Dirichlet $\alpha$ se muestrea mediante el ARS.
¿Existe algún tipo de garantía de ergodicidad para estos modelos basada, por ejemplo, en la reversibilidad de las técnicas individuales utilizadas en cada paso de la cadena, o la prueba es un poco más sutil?