A mi entender, la computación bayesiana aproximada (ABC) y el Monte Carlo con cadena de Markov (MCMC) tienen objetivos muy similares. A continuación describo lo que yo entiendo por estos métodos y cómo percibo las diferencias en su aplicación a datos de la vida real.
Cálculo bayesiano aproximado
ABC consiste en muestrear un parámetro $\theta$ a partir de una prior, mediante simulación numérica calcular un estadístico $x_i$ que se compara con algunos observados $x_{obs}$ . Basado en un algoritmo de rechazo, $x_i$ se mantiene o se rechaza. La lista de $x_i$ s hizo la distribución posterior.
Cadena de Markov Monte Carlo
MCMC consiste en muestrear una distribución a priori del parámetro $\theta$ . Toma una primera muestra $\theta_1$ calcular $P(x_{obs} | \theta_1)P(\theta_1)$ y luego saltar (según alguna regla) a un nuevo valor $\theta_2$ para lo cual $P(x_{obs} | \theta_2)P(\theta_2)$ se calcula de nuevo. La relación $\frac{P(x_{obs} | \theta_2)P(\theta_2)}{P(x_{obs} | \theta_1)P(\theta_1)}$ y en función de algún valor umbral, el siguiente salto se producirá desde la primera o la segunda posición. La exploración de $\theta$ valores va de uno en uno y al final, la distribución de retenciones $\theta$ es la distribución posterior $P(\theta | x)$ (por una razón que aún desconozco).
Soy consciente de que mis explicaciones no representan la variedad de métodos que existen bajo cada uno de estos términos (especialmente para MCMC).
ABC vs MCMC (pros y contras)
ABC tiene la ventaja de que no es necesario poder resolver analíticamente $P(x | \theta)P(\theta)$ . Como tal ABC es conveniente para el modelo complejo donde MCMC no lo haría.
MCMC permite hacer pruebas estadísticas (prueba de razón de verosimilitud, prueba G, ...) mientras que no creo que esto sea factible con ABC.
¿Tengo razón hasta ahora?
Pregunta
- ¿En qué se diferencian ABC y MCMC en sus aplicaciones? ¿Cómo se decide utilizar uno u otro método?