6 votos

Convergencia de la Martingala: Ejercicio (Durrett 5.5.7)

El ejercicio 5.5.7 en "Probability Theory and Examples 4ed" de Durrett dice Sea $X_n \in [0 , 1] $ adaptarse a $\mathcal{F_n}$ . Sea $\alpha$ , $\beta>0$ con $\alpha+\beta=1$ y suponer: $$P(X_{n+1}=\alpha+\beta X_n \mid\mathcal{F_n})=X_n \qquad\qquad P(X_{n+1}=\beta X_n \mid\mathcal{F_n})=1-X_n$$ Mostrar $P\left(\lim_{n}X_n=0 \: \text{or}\: 1\right)=1 $ y si $X_0=\theta$ entonces $P\left(\lim_{n}X_n=1\right)=\theta $ .

Sé que, en primer lugar, debería mostrar que $X_n$ es martingala con respecto a $\mathcal{F_n}$ es decir $$E[X_{n+1}\mid \mathcal{F_n}]=X_n \qquad \forall n \in \mathbb{N}$$ \begin{align}E[X_{n+1}\mid \mathcal{F_n}]&=E[X_{n+1}[I(X_{n+1}=\alpha+\beta X_n)+I(X_{n+1}=\beta X_n)]\:\mid \mathcal{F_n}]\\&=E[(\alpha+\beta X_n)I(X_{n+1}=\alpha+\beta X_n)+\beta X_nI(X_{n+1}=\beta X_n)\:\mid \mathcal{F_n}]\\&=(\alpha+\beta X_n)E[I(X_{n+1}=\alpha+\beta X_n)\:\mid \mathcal{F_n}]+\beta X_nE[I(X_{n+1}=\beta X_n)\:\mid \mathcal{F_n}]\\&=(\alpha+\beta X_n)P[X_{n+1}=\alpha+\beta X_n\:\mid \mathcal{F_n}]+\beta X_nP[X_{n+1}=\beta X_n\:\mid \mathcal{F_n}]\\&=(\alpha+\beta X_n)X_n+\beta X_n(1-X_n)=\alpha X_n+\beta X_n^2+\beta X_n-\beta X_n^2=X_n(\alpha+\beta)\\&=X_n\end{align} Así que $X_n$ es una martingala. Ahora estoy confundido para usar qué Teorema y por qué puedo usarlo para llegar a lo que el problema pedía. Estaría agradecido si alguien pudiera explicar el resto de la solución con detalle. Gracias de antemano.

0 votos

La segunda cosa que se quiere mostrar se puede escribir como $=[_0]\overset{!}=P(\lim_n X_n=1)=1\cdot P(\lim_n X_n=1)+0\cdot P(\lim_n X_n=0)=E[\lim_n X_n]$ . Esto me hace pensar: ¿Podría introducir algún tiempo de parada apropiado y utilizar el teorema de parada opcional? (aunque no estoy seguro)

0 votos

O el teorema de convergencia de Doob

3voto

jdve Puntos 129

Como ya ha dicho, la secuencia $(X_n)_n$ es una martingala positiva, por lo que converge con casi total seguridad. Además, es uniformemente integrable, por lo que también converge en $L_1$ . Por lo tanto, denotemos por $X$ su límite y escribir $$ B_n = \{ X_n = \alpha + \beta X_{n-1} \}; $$ $$ B = \limsup_n B_n = \{ B_n, \text{occurs } i.o.\} $$

Tome $\omega \in B$ y supongamos $(X_n(\omega))_n$ converge a $X(\omega)$ . Ahora, extrae una subsecuencia, $(X_{n_k}(\omega))_k$ , de $(X_n(\omega))_n$ tal que $X_{n_k}(\omega) = \alpha + \beta X_{n_k-1}(\omega)$ por parejas. Pues bien, esta subsecuencia debe converger a $X(\omega)$ ¿cierto? Entonces, es una secuencia de Cauchy, es decir, existe $k_0(\omega)$ tal que, para todo $k_1,k_2 \ge k_0$ tenemos $$|X_{n_{k_1}}(\omega) - X_{n_{k_2}}(\omega)| \le \varepsilon.$$

Pero, al elegir $k_1$ lo suficientemente grande, $X_{n_{k_1}}(\omega) = \alpha + \beta X_{n_{k_1}-1}(\omega) $ Por lo tanto

$$ |X_{n_{k_1}}(\omega) - X_{n_{k_1} - 1}(\omega)| = |\alpha + \beta X_{n_{k_1}-1}(\omega) - X_{n_{k_1}-1}(\omega)| \ge \alpha - \alpha X_{n_{k_1}-1}(\omega) $$ desde $\alpha + \beta = 1$ . Por lo tanto, nuestra subsecuencia debería converger a $1$ . Un argumento similar al de la aparición de $B_n^c$ i.o. implica que $X_n \longrightarrow 0 $ si $\omega \in \limsup B_n^c$ .

Así, $X = 1$ en $\liminf_n B_n$ y es igual a $0$ en $\liminf_n B_n^c$ . Esto demuestra $X \in \{ 0,1 \}$

La última parte es el comentario de @Stef combinado con la convergencia en $L_1$ .

$$ E[X] = 1\cdot P(X=1) = \lim_nE[X_n] = \theta. $$

Sinceramente, me encantaría ver un argumento más probabilístico en lugar de este analítico que acabo de dar. ¿Tal vez usando la Ley 0-1 de Levy? Si tienes otro enfoque, por favor, compártelo conmigo.

Espero que esto ayude.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X