4 votos

Ergodicidad de MCMC en un modelo jerárquico

Muchos de los modelos jerárquicos bayesianos que estoy estudiando utilizan una cadena de Markov como modelo. Estos modelos jerárquicos utilizan diferentes técnicas MCMC para muestrear los parámetros de bajo y alto nivel. Mi pregunta es: ¿el uso de diferentes técnicas MCMC para diferentes parámetros afecta de alguna manera a la ergodicidad/convergencia de la cadena de Markov?

Por ejemplo, en Rasmussen 2000 modelo de mezcla gaussiana infinita :

  1. La varianza de los componentes gaussianos recibe una prioridad Gamma inversa, $p(\sigma^{-2}) \sim \mathcal{G}(\beta, w^-1)$ . Dentro de esto, el $\beta$ El hiper mismo recibe una prioridad Gamma inversa $\mathcal{G}(1,1)$ y la posterior condicional de $\beta$ se muestrea mediante el ARS.
  2. Las variables indicadoras/latentes se muestrean mediante el muestreo de Gibbs.
  3. El parámetro de concentración del proceso Dirichlet $\alpha$ se muestrea mediante el ARS.

¿Existe algún tipo de garantía de ergodicidad para estos modelos basada, por ejemplo, en la reversibilidad de las técnicas individuales utilizadas en cada paso de la cadena, o la prueba es un poco más sutil?

5voto

Helper Puntos 1

Supongamos que la distribución posterior se denota por $\pi$ definido en un subconjunto de $\mathbb{R}^d$ . Entonces la cadena de Markov que muestrea de esta distribución es una cadena de Markov de espacio de estado general. Aquí están las condiciones necesarias para que una cadena de Markov sea ergódica (las definiciones están simplificadas).

  • $\pi$ es la distribución estacionaria de la cadena de Markov
  • la cadena de Markov es aperiódica, es decir, no se atasca en un ciclo determinista de conjuntos en $\mathbb{R}^d$ .
  • la cadena de Markov es irreducible, es decir, en algún número de pasos puede ir potencialmente de cualquier parte del espacio a cualquier otra parte del espacio.
  • la cadena de Markov es recurrente de Harris, es decir, hace lo anterior con una frecuencia infinita

Por lo tanto, cualquier cadena de Markov construida para espacios de estado generales debe satisfacer las propiedades anteriores para garantizar la convergencia de los promedios de Monte Carlo.

  • Si todas las condicionales completas de la distribución se comportan bien (pdfs no negativas, etc.), entonces el muestreador de Gibbs será ergódico, aunque no sean reversibles. La distribución estacionaria correcta proviene del hecho de que cada condicional completo produce una cadena de Markov con distribución estacionaria $\pi$ . Así, una convolución (aunque no sea reversible), tiene distribución estacionaria $\pi$ .
  • Todos los muestreadores de Metrópolis-Hastings son ergódicos siempre que las distribuciones de la propuesta estén bien definidas. Hamiltonian Monte Carlo es un muestreador M-H con una distribución de propuesta inusual que resulta ser bien comportada. Por tanto, es ergódico. La distribución estacionaria correcta proviene del hecho de que los M-H son reversibles con respecto a $\pi$ .

La ergodicidad garantiza la convergencia de la cadena de Markov. Sin embargo, lo difícil es elegir una cadena de Markov que converja a un ritmo rápido. La tasa de convergencia de la cadena de Markov es mucho más difícil de establecer.

Principal referencia para todo lo anterior: Roberts y Rosenthal (2004)

1 votos

La irreductibilidad puede ser un problema en los muestreadores Gibbs o M-H.

0 votos

¿Estoy en lo cierto al inferir de su respuesta que la distribución estacionaria $\pi$ para la cadena de Markov está garantizada porque cada técnica individual deja la distribución invariable ?

0 votos

@peco No estoy seguro de lo que significa. ¿Qué es "cada técnica individual" y cómo las estás combinando?

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X