Se trata de la definición de un estado recurrente. Creo que puede haber algo mal en este libro. se dice lo siguiente.
Supongamos que una cadena de Markov comienza en el estado i. Se dice que el estado i es un estado recurrente si la cadena de Markov vuelve al estado i con probabilidad 1; es decir,
pi =P(siempre vuelve al estado i) =1
Si la probabilidad pi es menor que 1, se dice que el estado i es un estado transitorio (León-García, 1994). Si la cadena de Markov comienza en un Si la cadena de Markov comienza en un estado recurrente, ese estado se repite un número infinito de veces. Si Si comienza en un estado transitorio, ese estado sólo se repite un número número finito de veces, lo que puede explicarse de la siguiente manera: Podemos ver el La reaparición del estado i es un ensayo Bernoulli con una probabilidad de éxito igual a pi. El número de retornos es, por tanto, una variable aleatoria geométrica con una media de (1 - 1/pi). Si pi < 1, se deduce que el número de un número infinito de éxitos es cero.Por lo tanto, un Por lo tanto, un estado transitorio no vuelve a ocurrir después de un número finito de retornos.
Puedes ver esas cursivas. No puedo entender qué tipo de estela de Bernoulli es. Por qué tiene una media de (1 - 1/pi), que indica que cuando pi < 1, la media es menor que cero. Tal vez es un error tipográfico, tal vez debería haber significado ser (1/pi - 1). Pero sigue pareciendo que no tiene sentido. Quiero decir que si quieres demostrar que la probabilidad de que un estado transitorio se repita un número infinito de veces es cero, puedes simplemente usar la limitación de que pi^n es cero cuando pi<1. Realmente me ha confundido durante mucho tiempo. ¿Alguien tiene algún consejo al respecto?