La literatura en MCMC y LBP nunca se refieren al hecho de que los dos métodos tienen un aspecto (en expectativa) exactamente el mismo. Para ilustrar, considere primero un simple modelo de Ising, es decir, una gráfica de un modelo en el que todas las variables son booleanas. Podemos denotar estas variables como $\{ X_i | X \in \{0,1\}, i \in (1,...,n)\}$ y podemos escribir la distribución conjunta en cierta forma factorizada como: $$ P(X) = \frac{1}{Z}\prod_{\alpha} \Psi_\alpha(X_\alpha) $$ Donde $\alpha$ es algún subconjunto de las variables y $\Psi_\alpha$ es una función potencial sobre estas variables. Suponiendo que estamos interesados en calcular la distribución marginal de un conjunto de variables podemos ejecutar Loopy de BP para calcular estos o podemos ejecutar un muestreador de Gibbs para simular de $P$ muestras $\{X^{(1)},...,X^{(m)}\}$ y calcular el marginal como: $X_i = \frac{1}{m}\sum_{j=1}^m X^{(j)}_i$.
Por ahora, considere la posibilidad de ejecutar un número infinito de Gibbs, samplers, al mismo tiempo, suele ser computacionalmente intratable, ya que sería necesario para mantener un número infinito de conjuntos muestra. Sin embargo, para distribuciones discretas podemos representar estas muestras de manera eficiente con un solo vector. En nuestro modelo de Ising, por ejemplo, podemos representar los conjuntos de muestras con un conjunto de vectores 2D $\{V_i | V \in \mathbb{R}^2, i \in (1,...,n)\}$. La primera componente del vector de $V_i$ da la proporción de las cadenas donde $X_i = 1$ y el segundo componente indica la proporción donde $X_i = 0$ (por supuesto que sólo necesita 1 dimensión para representar esto, pero no importa). Así que, asumiendo inicializamos las variables de nuestro Gibbs muestreadores de manera uniforme, a continuación, todos estos vectores sería igual a $[0.5, 0.5]$. Luego se puede continuar con el ordinario de Gibbs actualizaciones: el bucle a través de cada una de las variables (vectores) y volver a la muestra de acuerdo a los vecinos de los potenciales (condicionales). Después de una quemadura en el período de estos vectores representan el conjunto de muestras que se extraen de la distribución estacionaria $P$, entonces podemos calcular la distribución marginal para cada una de las variables por un promedio de estos vectores.
Ahora, otros que el promedio de paso, este procedimiento es idéntico a la loopy de BP. Y, de hecho, el promedio no es probable que la materia, ya que estos valores tienden a converger en mosts de los casos.
Si, de hecho, loopy de BP es exactamente el mismo como un "infinito" muestreador de Gibbs por qué es la literatura sobre estos dos métodos muy diferentes. Todos los Loopy BP análisis parece estar preocupado con la forma en que se minimiza el Bethe energía libre, mientras que el de Gibbs de la literatura se centra en la mezcla de tasas y la ergodicity de la cadena de Markov. También, sería simplemente el promedio de los mensajes en un Loopy BP inferencia procedimiento de proporcionar una estimación correcta en los casos donde las actualizaciones son oscilantes? Podrían los avances en el muestreo de Gibbs de la literatura, tales como el bloque de Gibbs, ser utilizado en Loopy BP esquemas para la velocidad de convergencia? Por último, si Loopy BP converge a una solución incorrecta, ¿eso implica que el Gibbs de la cadena no es ergodic?