A menudo me confundo
- cuando una cadena de Markov tiene una distribución de equilibrio;
- cuando esta distribución de equilibrio es única;
- qué estados iniciales convergen a la distribución de equilibrio; y
- en qué se diferencian las cadenas de Markov finitas y las contablemente infinitas con respecto a las anteriores.
(Google no acaba de aclarar mi confusión.) ¿Es correcto lo siguiente/me estoy perdiendo algo?
Una cadena de Markov irreducible (finita o contablemente infinita) tiene una distribución de equilibrio única si y sólo si todos los estados son recurrentes positivos. (¿Qué ocurre con las cadenas de Markov reducibles? Una cadena de Markov reducible tiene una distribución de equilibrio no única si todos los estados son recurrentes positivos). Sin embargo, no todos los estados iniciales convergen necesariamente al equilibrio único, a menos que la cadena de Markov sea también aperiódica; es decir, una cadena de Markov irreducible converge a su equilibrio único independientemente del estado inicial, si y sólo si todos los estados son recurrentes positivos y aperiódicos.