Algoritmos MCMC como Metropolis-Hastings y muestreo de Gibbs son formas de muestreo, a partir de la articulación de las distribuciones posteriores.
Creo entender y se puede aplicar metropolis-hasting muy fácilmente-sólo tiene que elegir puntos de partida, de alguna manera, y andando el espacio de parámetros' al azar, guiados por la parte posterior de la densidad y de la propuesta de la densidad. Muestreo de Gibbs parece muy similar, pero más eficiente, ya que las actualizaciones sólo un parámetro a la vez, manteniendo las demás constantes, efectivamente caminar en el espacio ortogonal de la moda.
Con el fin de hacer esto, usted necesita la plena condicional de cada parámetro en el análisis de*. Pero, ¿dónde estas condiciones? $$ P(x_1 | x_2,\ \ldots,\ x_n) = \frac{P(x_1,\ \ldots,\ x_n)}{P(x_2,\ \ldots,\ x_n)} $$ Para obtener el denominador usted necesita para marginar a la articulación con el $x_1$. Que parece como un montón de trabajo que hacer analíticamente si hay muchos parámetros, y no podría ser manejable si la distribución conjunta no es muy 'nice'. Me doy cuenta que si utiliza conjugacy todo el modelo, el pleno condicionales puede ser fácil, pero tiene que haber una mejor manera para situaciones de carácter más general.
Todos los ejemplos de muestreo de Gibbs he visto el uso de la internet juguete ejemplos (como el muestreo de una normal multivariante, donde las condiciones son sólo las normales a sí mismos), y parecen esquivar este problema.
* O ¿necesita la completa las oraciones condicionales en forma analítica? Cómo hacer programas como winBUGS hacerlo?