Estoy interesado en muestras de $\theta$ de la distribución posterior
$$ P(\theta|x) = \int d\phi P(\theta|\phi)P(\phi|x) $$
donde $x$ son datos y $\phi$ son parámetros de nuisance. En principio, puedo usar un muestreador de Metropolis Hastings para tomar muestras de $\theta$ y $\phi$ y descartar las muestras del parámetro de nuisance.
En este caso, puedo muestrear de $P(\phi|x)$ directamente de modo que pueda aproximar la distribución posterior marginal mediante la integración de Monte Carlo
$$ P(\theta|x)\approx\frac{1}{n}\sum_{i=1}^n P(\theta|\phi_i)\equiv \hat P, $$
donde $\phi_i$ son muestras de $P(\phi|x)$. Por supuesto, la aproximación $\hat P$ no es determinística debido al error de muestreo. Parece que recuerdo que ejecutar el siguiente algoritmo toma muestras de la posterior en este caso pero ya no puedo encontrar la referencia. ¿Es esto correcto? En ese caso, ¿tienes alguna referencia?
# Muestreador en pseudo-python
theta = valor_inicial
para paso en rango(num_pasos):
# Muestra phi
phi = muestra_phi_dado_x(x)
# Evaluar la posterior actual
estimación_posterior = media(posterior(theta, phi))
# Muestreado de la propuesta y evaluación de la posterior en la propuesta
candidato = muestrear_de_propuesta(theta)
estimación_posterior_candidato = media(posterior(candidato, phi))
# Aceptar o rechazar la propuesta
si random_uniform() < estimación_posterior_candidato / estimación_posterior:
theta = candidato
0 votos
Esta forma clásica de Cadena de Markov Monte Carlo produce solo distribuciones posteriores bien definidas.
0 votos
@MichaelChernick, Me temo que no sigo.
3 votos
Busque aquí: darrenjw.wordpress.com/2010/09/20/… (para una referencia, el término que necesita buscar es pseudo-marginal MCMC).
0 votos
@lacerbi: ¡gracias por el enlace! @eric_kernfeld: un muestreador de independencia no es adecuado en mi caso porque no tengo una buena idea de las regiones de alta densidad del posterior. Eliminar la llamada a
mean
reducirá la tasa de aceptación si la varianza del posterior asociada con el muestreo de $\phi$ es suficientemente grande. En otras palabras, el algoritmo es afectado por la maldición de la dimensionalidad.0 votos
@TillHoffmann Eliminé mi comentario después de leer la publicación de lacerbi, porque ya no estoy tan seguro de lo que está sucediendo en tu código.