8 votos

Secuenciales de Monte Carlo (filtro de partículas) con ponderación de Metropolis-Hastings

Supongamos que estamos interesados en la aproximación de las siguientes expectativas:

$$\mathbb{E}[h(x)] = \int h(x)\pi(x) dx$$

Donde $h(x)$ es una función arbitraria y $\pi(x)$ es una distribución conocida sólo de la normalización de la constante. Podríamos aproximar esta expectativa utilizando una Metropolis-Hastings sampler para la extracción de muestras $\{x_t\}_{t=1}^N$ a partir de una cadena de Markov con distribución estacionaria $\pi(x)$, debemos en primer lugar definir el MH peso de la función:

$$w(x,x') = \frac{\pi(x')T(x',x)}{\pi(x)T(x,x')}$$

  • ejemplo de $x_0$ desde arbitraria propuesta
  • para $t = 1...N$
  • proponer $x'$ mediante el muestreo de $T(x_t,\cdot)$
  • si $w(x_t,x') > r$ (donde$r \sim \mathcal{U}(0,1)$), a continuación, $x_{t+1} = x'$ else $x_{t+1} = x_t$
  • $S \leftarrow S + h(x_{t+1})$

Dando la final de la aproximación: $$\mathbb{E}[h(x)] \approx \frac{S}{N}$$

La pregunta es, ¿se puede hacer el mismo "truco" (muestreo a partir de una cadena de Markov con distribución estacionaria $\pi$) el uso secuencial de Monte Carlo (filtro de partículas) y el uso de pesas en lugar de una simple aceptación/rechazo de la regla. La comparación, en teoría, es similar a la del común de rechazo de muestreo frente importancia de muestreo. Para ello, tenga en cuenta el siguiente procedimiento: en primer lugar muestra un conjunto de N partículas: $\{x_0^{(i)}\}_{i=1}^N$ desde arbitraria de la propuesta, a continuación, ejecute el siguiente bucle L veces:

  • para cada una de las $x_t^{(i)}$ proponer $x_{t+1}^{(i)}$ mediante el muestreo de $T(x_t^{(i)},\cdot)$
  • el peso de cada $x^{(i)}$ $w(x_t^{(i)},x_{t+1}^{(i)})$
  • $S \leftarrow S + \sum_{i=1}^N w(x_t^{(i)},x_{t+1}^{(i)})h(x_{t+1}^{(i)})$
  • volver a muestrear N de nuevas partículas $x_{t+1}^{(i)}$ proporcional a los pesos

Dando la final de la aproximación: $$\mathbb{E}[h(x)] \approx \frac{S}{N L}$$

Este procedimiento es diferente de la típica secuencial importancia de muestreo, o la importancia adaptativa de muestreo, técnicas en un par de maneras. Primero de todo, la propuesta de distribución ($T(\cdot,\cdot)$) no cambia a medida que nuevas muestras llegan, también, no es una propuesta que intenta estar en cualquier lugar cerca de la óptima distribución $\frac{|h(x)|\pi(x)}{Z}$. En lugar de ello, la propuesta es mejor visto como una de Markov de transición del núcleo y debe ser combinado con la correspondiente función de ponderación para asegurar que las transiciones son consistentes con una cadena de Markov. De hecho, este procedimiento es muy similar (pero no igual) a la ejecución de $N$ independiente de las cadenas de Markov.

La cuestión se reduce a un par de cuestiones. En primer lugar, este método es incluso corregir en que los objetivos declarados, que es: si las partículas $\{x_t^{(i)}\}_{i=1}^N$ son distribuidos de acuerdo a la $\pi(\cdot)$, después de un bucle del procedimiento anterior, se $\{x_{t+1}^{(i)}\}_{i=1}^N$ se distribuye de acuerdo a $\pi(\cdot)$? También, si esto es cierto, ¿este enfoque ofrece ninguna ventaja sobre el básico de Metropolis-Hastings sampler presentado por primera vez? Es alguien capaz de apuntar hacia cualquiera de los documentos que se refieren específicamente a esta idea: SMC para la muestra de cadenas de Markov estacionaria? Supongo que esto es técnicamente un método MCMC es así, ¿hay tal cosa como "ponderado MCMC" o "ponderado de la Metrópoli"? O es esto similar a la idea de "reciclaje de desechos" para los métodos MCMC (no estoy muy familiarizado con esto)?


Después de las ediciones:

En otro pensamiento se parece a la secuencia de las muestras no son distribuidos de acuerdo a la $\pi(\cdot)$ debido a que la función de ponderación no cumple con el balance detallado de condición, a menos que $\pi(x)$ pasa a ser uniforme. Esto puede ser visto por considerar transición simétrica de la función $T(x,x')$

$$ \begin{eqnarray*} \pi(x)w(x,x') = \pi(x')w(x'x) \\ \pi(x)\frac{\pi(x')}{\pi(x)} = \pi(x')\frac{\pi(x)}{\pi(x')} \\ \pi(x') = \pi(x) \end{eqnarray*} $$

Este detalle podría ser solucionado mediante el uso de la exacta función de ponderación $\min(1,w(x,x'))$ y garantizar que cada uno de los estados anteriores se incluye en el promedio ponderado de conjunto con peso igual a $1-w(x,x')$. Si se hace esto, el método es muy similar a la de la simple ejecución de $N$ cadenas de Markov en paralelo. Estas cadenas no sería independiente por decir, ya que no sería algunas de las complejas interacciones entre las cadenas (debido a la combinación de remuestreo etapa); yo no soy capaz de ver lo que los efectos de esto sería, si los hubiere. Sin embargo, puede que haya un poco de mérito a hacer esto porque el promedio ponderado de las muestras todavía podría ser utilizado en el cálculo de la esperanza final. Que es, parece que este método todavía se podría lograr el objetivo de un libre de rechazo MCMC sampler.


Más ediciones:

Que debo hacer otra distinción clara. La generalización de la importancia método de muestreo cubierto en 14.2 de Monte Carlo Métodos Estadísticos parece estar muy cerca de la SMC procedimiento escribí. Sin embargo, en realidad son muy diferentes. En primer lugar, en este método, al igual que con MH, el apoyo a la propuesta de distribución de $T(x,x')$ no necesita contener el apoyo de la meta propuesta $\pi(x)$ (como es requerido por Lema 14.1), más el apoyo de los requisitos de la caída de la ergodicity de la simulación de cadenas de Markov. Esto hace que $T(x,x')$ significativamente distinta a la combinación del Núcleo de la función $K(x,x')$ y la propuesta de $g(x)$ se encuentra en el SIG.

La población método de Monte Carlo, sin embargo, parece subsumir el procedimiento que he mencionado aquí. Con la diferencia de que no me he adaptado a mi propuesta a lo largo del tiempo, donde un PMC método permite un marco para hacerlo (entre otras ventajas). Por lo que esta parece ser la respuesta a mi pregunta, Sí puede hacerlo y de hecho, puede ser incluso más general acerca de su elección de la transición del núcleo (propuesta función) que con MH.

Si esto es correcto, me pregunto por qué Metropolis-Hastings y los enfoques relacionados con el siendo tan popular si pueden, simplemente, ser asumida por el más general PMC método?

3voto

Lev Puntos 2212

La respuesta está en el título: esto se denomina secuencial de Monte Carlo o de filtrado de partículas o de la población de Monte Carlo. Es validado en su más amplia generalidad como un iterado importancia esquema de muestreo donde cada muestreo de importancia se utiliza para generar el siguiente ejemplo. Este es, por ejemplo, cubierto en el Capítulo 14 de Monte Carlo Métodos Estadísticos.

El problema específico de la utilización de toda la secuencia de la simulación se encuentra en la liteature, pero no en la manera directa que se proponen: el uso de todas las muestras a la vez con los mismos pesos no se comporta muy bien cuando algunos de los pesos son enormes (como cuando uno empieza con una mala suposición). Esto es cubierto en el fantástico múltiples mezcla de papel por Owen y Zhou (2000, JASA) y en nuestra más reciente versión adaptativa (al $T$ depende de la iteración $t$ y en los últimos simulaciones) llama la AMIS.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X