Estaba tratando de entender la diferencia entre la propiedad de Markov fuerte y la propiedad de Markov habitual para un número discreto de estados. Creo que entiendo por qué la propiedad de Markov fuerte implica la habitual : Tenemos que considerar un tiempo de parada determinista $T(\omega)=t_0$ ¿verdad?
Pero, ¿cuál sería un ejemplo sencillo (como el lanzamiento de una moneda, de un dado,...) en el que tengamos la propiedad de Markov pero no la propiedad de Markov fuerte?
Respuesta
¿Demasiados anuncios?Cualquier tiempo discreto La cadena de Markov tiene la propiedad de Markov fuerte; lo mismo ocurre con una cadena de tiempo continuo con un tiempo de parada que sólo toma un conjunto contable de valores. En realidad, no es tan difícil de demostrar, sólo hay que condicionar la realización particular del tiempo de parada. Puede leer sobre la propiedad de Markov fuerte en El libro de James Norris En particular Sección 1.4 -- esto es por tiempo discreto. Como señalas, Markov fuerte implica Markov con sólo tomar el tiempo de parada determinista. Así que no puede llegar a una cadena que tiene uno pero no el otro :)
Para el tiempo continuo, es más sutil. Estas notas de clase dar un contraejemplo -- Ejemplo 167. (Los apuntes completos de la conferencia se pueden encontrar aquí .)