No es cierto que el cumplimiento del equilibrio detallado por parte de MCMC siempre produzca la distribución estacionaria. También es necesario que el proceso sea ergódico . Veamos por qué:
Considere $x$ para ser un estado del conjunto de todos los estados posibles, e identificarlo por el índice $i$ . En un proceso de Markov, una distribución $p_t(i)$ evoluciona en función de
$$p_t(i) = \sum_{j} \Omega_{j \rightarrow i} p_{t-1}(j)$$
donde $\Omega_{j \rightarrow i}$ es la matriz que denota las probabilidades de transición (tu $q(x|y)$ ).
Por lo tanto, tenemos que
$$p_t(i) = \sum_{j} (\Omega_{j \rightarrow i})^t p_{0}(j)$$
El hecho de que $\Omega_{j \rightarrow i}$ es una probabilidad de transición implica que sus valores propios deben pertenecer al intervalo [0,1].
Para garantizar que cualquier distribución inicial $p_{0}(j)$ converge a la asintótica, hay que asegurarse de que
- 1 Sólo hay un valor propio de $\Omega$ con valor 1 y tiene un único vector propio no nulo.
Para garantizar que $\pi$ es la distribución asintótica, hay que asegurarse de que
- 2 El vector propio asociado al valor propio 1 es $\pi$ .
La ergodicidad implica 1., el equilibrio detallado implica 2., y por eso ambos forman una condición necesaria y suficiente de la convergencia asintótica.
Por qué el equilibrio detallado implica 2:
A partir de
$$p(i)\Omega_{ij} = \Omega_{ji} p(j)$$
y sumando sobre $j$ en ambos lados, obtenemos
$$p(i) = \sum_{j}\Omega_{ji} p(j)$$
porque $\sum_{j} \Omega_{ij} = 1$ ya que siempre se transita hacia algún lugar.
La ecuación anterior es la definición del valor propio 1, (más fácil de ver si se escribe en forma vectorial:)
$$ 1.v = \Omega\cdot v$$