1 votos

Paseo aleatorio simple y la propiedad de Markov fuerte


Pregunta

Considere $p \in(0,1)$ y un simple paseo $\left(Y_{n}\right)_{n \geq 0}$ en $\mathbb{Z}$ con matriz de transición

$$ P_{n, m}=\left\{\begin{array}{cc} p & \text { if } m=n+1 \\ 1-p & \text { if } m=n-1 \\ 0 & \text { otherwise. } \end{array}\right. $$

Pongamos $$ H_{0}=\inf \left(n \geq 0: Y_{n}=0\right\} $$ sea el tiempo de golpeo del valor $a$ por la cadena.

a) Demuestre que es casi seguro, $$ \lim _{n \rightarrow \infty} \frac{Y_{n}}{n}=2 p-1 $$

b) Consideremos

$$ f(y)=\mathbb{P}_{y}\left(H_{0}<+\infty\right), \forall y \geq 0 . $$

(i) Cuando $p<\frac{1}{2}$ , demuestran que $f(y)=1, \forall y \geq 0$ .

(ii) Supongamos que $p \geq \frac{1}{2}$ .

Demuestre utilizando la propiedad de Markov fuerte para un tiempo de parada relevante que $$ f(y)=f(1)^{y}, \forall y \geq 1 . $$


Mis intentos

(a)

Es evidente que $Y_{n}=\sum_{k=1}^{n} X_{k}$ con $X_{k}\sim \operatorname{Ber}(p) \Rightarrow$ la media $\mu=\mathbb{E}\left[X_{k}\right]=p-1-(1-p)=2 p-1$ Además, señalando $\mathbb{E}\left|X_{k}\right|=p \cdot 1+(1-p)=1<\infty$ . Ahora, definiendo lo siguiente: $S_{n}:=\frac{1}{n} Y_{n}=\frac{1}{n} \sum_{k=1}^{n} X_{k}$ . Lo que nos permite implicar que, usando la ley fuerte del gran número, vemos... $$ S_{n}=\frac{1}{n} \sum_{k=1}^{n} X_{k}=\frac{Y_{n}}{n} \rightarrow 2 p-1, \mathbb{P}-a.s \quad \square $$ (b)

(i) De la parte (a), tenemos $\lim _{n \rightarrow \infty} \frac{Y_{n}}{n} \rightarrow 2 p-1<0$ ya que $p<\frac{1}{2}$ es decir $Y_{n}$ está reduciendo su tamaño, en promedio, desde un valor positivo $y$ . Además, es evidente que el Estado $0$ es un estado recurrente $(\mathbb{P}\{$ Estado $0$ es golpeado i.o $\}=1)$ . Por lo tanto, como $n \rightarrow \infty\space\space Y_{n}$ reducirá por término medio $$ \therefore f(y)=\mathbb{P}_{y}\left\{H_{0}<\infty\right\}=1 \quad \forall y \geqslant 0 \quad \square $$

(ii) Aquí es donde me quedo atascado, no entiendo del todo la propiedad de Markov fuerte, he visto varias formulaciones y todavía no estoy seguro. Cualquier ayuda sería muy apreciada :)

1voto

Snoop Puntos 491

La parte (a) se resuelve, efectivamente, de forma inmediata por medio de LLN.

Hay un argumento de martingala para la parte (b.i). Supongo que $P_y(A)=P(A|Y_0=y)$ . Sea $p<1/2$ . Consideramos que $Y_0=y$ y $\tau=\inf\{k:Y_k=0\}$ . Consideramos la martingala $Z_n=Y_n-n(2p-1)$ . Así, $$y=E[Z_{n\wedge \tau}]=E[\underbrace{Y_{n \wedge \tau}}_{\geq 0}-(n\wedge \tau_y)(2p-1)]\geq -(2p-1)E[(n\wedge \tau_y)]$$ (nota $-(2p-1)>0$ ). Así que $$E[(n\wedge \tau)]\leq \frac{y}{-(2p-1)}\stackrel{\textrm{MCT}}{\implies}E[\tau] \leq \frac{y}{-(2p-1)}$$ Así que $$P(\tau\geq n)\leq \frac{E[\tau]}{n}\implies P(\tau=\infty)=0\implies P(\tau<\infty)=1,\,\forall y\geq 0$$ De lo contrario, para (b.i) se puede utilizar el hecho de que a partir de $Y_0=0$ $$Y_n=n\frac{Y_n}{n}\to \infty\cdot \underbrace{(2p-1)}_{<0}=-\infty \textrm{ a.s.}$$ Así que $Y_n$ golpea $-y$ para todos $y\geq 0$ a.s. y por lo tanto $P(H_0<\infty)=1,\,\forall y\geq 0$ .

Para (b.ii). Considere $Y_0=y$ . Entonces para $Y_n$ para golpear $0$ necesitamos $Y_{n}$ golpeando $1$ y $Y_{H_1+n}$ golpeando $0$ . Observe que $Y_{H_1+n}$ es una copia idéntica de $Y_n$ a partir de la hora $H_1$ y posición $1$ y por la propiedad fuerte de Markov tenemos que en $\{H_1<\infty\}$ , $Y_{H_1+n}$ es independiente de $\mathscr{F}_{H_1}$ . Pero todo esto significa que $$P_y(H_0<\infty)=P_{y}(H_1<\infty)P_1(H_0<\infty)=P_{y-1}(H_0<\infty)P_1(H_0<\infty)$$ y se puede concluir por inducción.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X