Aquí hay una prueba que encontré en la sección 1.8 de las cadenas de Markov de James Norris. Es mucho más sofisticada de lo que pensé que sería necesario; si alguien tiene una prueba más sencilla que ofrecer, se agradecería mucho.
Supongamos que $X_n$ es recurrente nulo. Si es periódico con periodo $d$ podemos considerar la subcadena aperiódica $X_{dn}$ y demostrar que las probabilidades de retorno de esta cadena tienden a cero, demostrando así que todas las probabilidades de retorno tienden a cero. Por lo tanto, supongamos que la cadena es aperiódica.
Dejemos que $T_j$ ser el primer tiempo de retorno al estado $j$ . Sabemos que $$ \infty = \sum_{k = 0}^\infty k \,\mathbb{P}_j(T_j = k) = \sum_{k = 0}^\infty \mathbb{P}_j(T_j > k) \,.$$ Dado $\varepsilon > 0$ elija $K$ tal que $$ \sum_{k=0}^K \mathbb{P}_j(T_j > k) \geq \frac{1}{\varepsilon} \,.$$ Entonces, para $n \geq K$ , $$ \begin{align}1 &\geq \sum_{k =n-K}^n\mathbb{P}(X_k = j, X_m \neq j \;\text{for}\; m=k+1,\ldots,n) \\ &= \sum_{k =n-K}^n \mathbb{P}(X_k = j)\mathbb{P}_j(T_j > n - k) \\ &=\sum_{k =0}^K \mathbb{P}(X_{n-k} = j)\mathbb{P}_j(T_j > k)\,.\end{align}$$ Por lo tanto, debemos tener $\mathbb{P}_j(X_{n-k} = j)\leq \varepsilon$ para algunos $k = 0,1,\ldots,K$ .
Ahora hacemos un argumento de acoplamiento. Sea $Y_n$ sea una cadena con las mismas probabilidades de transición que $X_n$ y una distribución inicial que se definirá más adelante. La cadena $W_n = (X_n,Y_n)$ es irreducible en virtud de la aperiodicidad de $X_n$ . Si $W_n$ es transitorio, entonces fijando $X_n$ y $Y_n$ para tener la misma distribución inicial podemos demostrar fácilmente que las probabilidades de retorno tienden a cero.
Por lo tanto, supongamos que $W_n$ es recurrente. Pero un irreducible La cadena recurrente explora todos los estados con probabilidad unitaria, por lo que las dos cadenas $X_n$ y $Y_n$ se reúnen casi con seguridad. Set $Z_n$ para igualar $X_n$ antes de que las dos cadenas se encuentren (en $n = T$ , digamos) y $Y_n$ a partir de entonces. Entonces $X_n$ y $Z_n$ tienen la misma distribución por lo que $$\begin{align}|\mathbb{P}(X_n = j) - \mathbb{P}(Y_n = j)| &= |\mathbb{P}(Z_n = j) - \mathbb{P}(Y_n = j)| \\ &=|\mathbb{P}(X_n = j, n < T) - \mathbb{P}(Y_n = j, n < T)| \\ & \leq \mathbb{P}(n < T) \to 0 \,. \end{align} $$ De ahí que las dos cadenas $X_n$ y $Y_n$ tienen probabilidades de retorno convergentes. Ahora sólo tenemos que explotar el hecho de que somos libres de elegir la distribución inicial para $Y_n$ . Si $X_n$ tiene una distribución inicial $\lambda$ dejar $Y_n$ tienen una distribución inicial $\lambda P^k$ para $k = 1,\ldots,K$ para que $\mathbb{P}(Y_n = j) = \mathbb{P}(X_{n+k} = j)$ . Como las dos cadenas tienen probabilidades convergentes, podemos encontrar $N$ tal que para $n \geq N$ y $k=1,\ldots,K$ , $$ | \mathbb{P}(X_n = j) - \mathbb{P}(X_{n+k} = j)| \leq \varepsilon \,.$$ Finalmente, sabemos por lo anterior que en cualquier intervalo de longitud $K$ hay algo de $k$ tal que $\mathbb{P}(X_k = j) \leq \varepsilon$ y por lo tanto $$ \mathbb{P}(X_n = j) \leq 2 \varepsilon \,.$$ Desde $\varepsilon > 0$ era arbitraria hemos demostrado el resultado.