5 votos

La suma de variables aleatorias es igual a cero con una frecuencia infinita

$X_1,\dots ,X_n$ son variables aleatorias i.i.d con $P(X_1=1)=p$ , $P(X_1=-1)=1-p$ , $p\neq\frac{1}{2}$ . Y $S_n=\sum_{k=1}^nX_k$ .

Necesito demostrar que $P(\limsup_{n\to\infty}\{S_n=0\})\in\{0,1\}$ .

Me parece que $\limsup_{n\to\infty}\{S_n=0\}$ no está en la cola del álgebra sigma. Sin esto, no sé cómo proceder con él.

5voto

Wanshan Puntos 139

Un enfoque sería utilizar la ley 0-1 de Hewitt-Savage, que es una generalización de la ley 0-1 de Kolmogorov. A grandes rasgos, introducimos un concepto llamado intercambiable $\sigma$ -campo $\mathcal{E}$ y mostrar ese evento $\limsup_{n\rightarrow \infty}\{S_n = 0\}$ o $\{S_n = 0, i.o.\}$ pertenece a $\mathcal{E}$ . La ley Hewitt-Savage 0-1 afirma que si $X_i$ son i.i.d. y $A\in \mathcal{E}$ entonces $P(A) =0$ o $1$ . Puede ver esa explicación detallada en la página 153-154 de Probabilidad: Theory and Examples, Ed 4.1 de Rick Durrett. (ver aquí en línea).

A grandes rasgos, para nuestro caso, un evento $A$ está en $\mathcal{E}$ si la ocurrencia de $A$ no cambia si intercambiar el valor de un número finito de $X_i$ 's. Así, se puede ver que la cola $\sigma$ -campo $\mathcal{T}\subset \mathcal{E}$ , lo que indica que este resultado es más general que la ley 0-1 de Kolmogorov.

En realidad esto se puede generalizar a cualquier conjunto de Borel $B$ porque $\{S_n \in B, i.o.\}\in \mathcal{E}$ .

Aquí $\{S_n = B, i.o.\}\in \mathcal{E}$ porque intercambiando valores de un número finito de $X_i$ no afecta a $\{S_n = B, i.o.\}$ .

3voto

Patrick Puntos 31

Uno puede hacer las cosas explícitamente aquí, sin $0$ - $1$ leyes, y demostrar que el evento en cuestión tiene probabilidad $0$ .

Observe que $\mathbb{P}(S_n = 0) = 0$ si $n $ es impar, y si $n= 2k$ con $k\in \mathbb{N}$ entonces $$ (1) \qquad \mathbb{P}(S_{2k} = 0) = \left(\begin{array}{c} 2k \\ k \end{array} \right) p^{k}(1-p)^{k}. $$

Ahora, utilizando la fórmula de Stirling para los factoriales, obtenemos $$ \left(\begin{array}{c} 2k \\ k \end{array} \right) = \frac{(2k)! }{(k!)^2} \leq C \frac{\sqrt{2\pi 2k } (2k)^{2k} e^{-2k} }{2\pi k \ k^{2k} e^{-2k} } = C \frac{4^k}{\sqrt{\pi k}}, $$ donde $C>0$ es una constante independiente de $k$ . A partir de esto, volver a $(1)$ obtenemos $$ \qquad \mathbb{P}(S_{2k } = 0) \leq C \frac{1}{\sqrt{\pi k}} 4^k p^k (1-p)^k, \qquad k = 1,2,... $$ Es fácil ver que $p(1-p) < 1/4$ donde $0\leq p \leq 1$ y $p\neq 1/2$ y por lo tanto $$ \sum_{k=1}^{\infty}\mathbb{P}(S_k = 0) < \infty. $$ Esto implica, por Borel-Cantelli que el evento $ \limsup \{{S_k = 0} \}$ tiene probabilidad $0$ .

1 votos

Adenda: Hay otra forma rápida de ver que $\mathbb{P} (\limsup \{S_n = 0\} ) = 0$ . Obsérvese que aquí se aplica la ley fuerte del gran número, que implica que $$\frac{S_n}{n} \to 2p-1 \text{ a.s. } .$$ Pero como $2p-1 \neq 0$ se deduce que $\mathbb{P}(\limsup \{S_n = 0\} ) = 0$ ya que de lo contrario se produciría una convergencia de $S_n/n$ a $0$ con una probabilidad positiva, lo cual es una contradicción.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X