Desde Introducción a la modelización estocástica de Pinsky y Karlin (2011):
Una distribución límite, cuando existe, es siempre una distribución estacionaria, pero lo contrario no es cierto. Puede existir una distribución estacionaria pero no una distribución límite. Por ejemplo, no existe una distribución límite para la cadena de Markov periódica cuya matriz de probabilidad de transición es $$ \mathbf{P}=\left\|\begin{matrix}0 & 1\\1 & 0\end{matrix}\right\| $$ pero $\pi=\left(\frac{1}{2},\frac{1}{2}\right)$ es una distribución estacionaria, ya que $$ \left(\frac{1}{2},\frac{1}{2}\right)\left\|\begin{matrix}0 & 1\\1 & 0\end{matrix}\right\|=\left(\frac{1}{2},\frac{1}{2}\right) $$ (p. 205).
En una sección anterior, ya habían definido un " distribución de probabilidad límite " $\pi$ por
$$\lim_{n\rightarrow\infty}P_{ij}^{(n)}=\pi_j~\mathrm{for}~j=0,1,\dots,N$$
y de forma equivalente
$$\lim_{n\rightarrow\infty}\operatorname{Pr}\{X_n=j|X_0=i\}=\pi_j>0~\mathrm{for}~j=0,1,\dots,N$$ (p. 165).
El ejemplo anterior oscila de forma determinista, por lo que no tiene límite de la misma forma que la secuencia $\{1,0,1,0,1,\dots\}$ no tiene límite.
Afirman que una cadena de Markov regular (en la que todas las probabilidades de transición de n pasos son positivas) siempre tiene una distribución límite, y demuestran que debe ser la única solución no negativa de
$$\pi_j=\sum_{k=0}^N\pi_kP_{kj},~~j=0,1,\dots,N,\\ \sum_{k=0}^N\pi_k=1$$ (p. 168)
Luego, en la misma página del ejemplo, escriben
Cualquier conjunto $(\pi_i)_{i=0}^{\infty}$ que satisface (4.27) se llama distribución de probabilidad estacionaria de la cadena de Markov. El término "estacionario" deriva de la propiedad de que una cadena de Markov iniciada según una distribución estacionaria seguirá esta distribución en todos los puntos del tiempo. Formalmente, si $\operatorname{Pr}\{X_0=i\}=\pi_i$ entonces $\operatorname{Pr}\{X_n=i\}=\pi_i$ para todos $n=1,2,\dots$ .
donde (4.27) es el conjunto de ecuaciones
$$\pi_i \geq 0, \sum_{i=0}^{\infty} \pi_i=1,~\mathrm{and}~\pi_j = \sum_{i=0}^{\infty} \pi_iP_{ij}.$$
que es precisamente la misma condición de estacionariedad que la anterior, excepto que ahora con un número infinito de estados.
Con esta definición de estacionariedad, la afirmación de la página 168 puede replantearse retroactivamente como:
- La distribución límite de una cadena de Markov regular es una distribución estacionaria.
- Si la distribución límite de una cadena de Markov es una distribución estacionaria, entonces la distribución estacionaria es única.