4 votos

El tiempo de parada en las cadenas de Markov

Una variable aleatoria $T : \Omega \rightarrow ${$1,2,3...$} $\cup$ {$ \infty$} se denomina tiempo de parada en caso de que el evento {$T=n$} sólo depende de $X_0 , X_1 ,X_2 ,..., X_n$ $n = 0,1,2,...$

Tengo problemas para entender esta definición. ¿Qué tipo de dependencia de la que estamos hablando? Lo que hace este tiempo de paro significa?

4voto

Stef Puntos 17114

Esto significa que sobre la base de información acerca de $X_1,X_2,\ldots X_n$ usted puede estar seguro de si $\{T=n\}$ se ha producido o no. En otras palabras, si $X_1, X_2, \ldots,X_n$ se han realizado, es decir, si estamos en el tiempo de $n$, entonces podemos estar seguros de si el evento $\{T=n\}$ se aplica o no. La definición habitual de un tiempo de parada es $$T=\inf\{n\in \mathbb N: \text{event E has occured}\}$$ So, this dependence says that the event $E$ which when it occurs you can stop, depends only at the $$ n primeros períodos de tiempo. Ejemplos

  1. Tiempo de parada: $T_y=$ la primera vez que regreso/visita de un estado específico $y$.
  2. No el tiempo de paro: $W_y=T_y-1$ (ver también aquí). Obviamente $W_y$ también depende de la $X_{n+1}$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X