Supongamos que tenemos una secuencia independiente de v.r. Bernoulli. $(X_n)_{n=1}^\infty$ cada $X_n$ obtiene 1 w.p. $\frac{1}{\sqrt{n}}$ y en caso contrario $0$ . ¿Cómo podemos demostrar que casi con toda seguridad se cumple lo siguiente? $$\lim_{N\rightarrow \infty} \frac{1}{N} \sum _{n=1}^N X_n = 0 $$
Respuestas
¿Demasiados anuncios?Empecemos con una secuencia que se sabe que converge $a.s.$ :
Sea $B_n(p)$ sea una secuencia de iid Bernoulli r.v.s con $P(B_n(p)=1)=p$
En este caso, se sabe que $$\lim_{N\rightarrow \infty} \frac{1}{N} \sum _{n=1}^N B_n(p) = p\; (a.s.)$$
Para un determinado $p \in (0,1]$ podemos dejar que $M_p=\lceil \frac{1}{p^2}\rceil$ y obtenemos:
$$\lim_{N\rightarrow \infty} \frac{1}{N} \sum _{n=M_p}^{N+M_p} X_n \leq \lim_{N\rightarrow \infty} \frac{1}{N} \sum _{n=1}^N B_n(p) = p \;(a.s.)$$
Esto se debe a que tanto $X_n$ y $B_n(p)$ son Bernoulli, pero $X_n$ tiene una probabilidad estrictamente decreciente de ser $1$ . Esto significa que $\frac{1}{N}\sum _{n=M_p}^{N+M_p} X_n$ está limitada en probabilidad por $\frac{1}{N} \sum _{n=1}^N B_n(p)$ es decir,
$$P\left(\frac{1}{N}\sum_{n=M_p}^{N+M_p} X_n > 0\right) \leq P\left(\frac{1}{N} \sum_{n=1}^N B_n(p) > 0\right)$$
De los dos argumentos anteriores, tenemos:
$$\forall p \in (0,1]\;\;\exists M_p\in \mathbb{N}: \lim_{N\rightarrow \infty} \frac{1}{N} \sum _{n=M_p}^{N+M_p} X_n \leq p\; (a.s.) $$
Así, cada valor de $p \in (0,1]$ representa una cota superior casi segura del límite de una serie adecuadamente inicializada en $X_n$ (es decir, un $M_p$ ).
¿Qué pasa con el $M_p-1$ términos que omitir de $\lim\limits_{N\rightarrow \infty} \frac{1}{N} \sum _{n=M_p}^{N+M_p} X_n$ . Sabemos que estos términos pueden sumar como máximo $M_p-1$ por lo que nuestro límite superior revisado es:
$$\lim\limits_{N\rightarrow \infty} \frac{1}{N} \sum _{n=1}^{N} X_n \leq \lim\limits_{N\rightarrow \infty} \left[ \frac{M_p-1}{N} + \frac{1}{N} \sum _{n=M_p}^{N+M_p} X_n \right] \leq 0+p=p\; a.s.$$
Hemos demostrado que cada $p \in (0,1]$ representa un límite superior casi seguro del valor de $\lim\limits_{N\rightarrow \infty} \frac{1}{N} \sum _{n=1}^{N} X_n $
Reconstruyendo en términos de definición de límites, podemos ver que:
$$\forall p \in (0,1], \exists M: \left|\frac{1}{N} \sum _{n=1}^{N} X_n\right|<p\;\forall N>M\; (a.s.) \implies \lim\limits_{N\rightarrow \infty} \frac{1}{N} \sum _{n=1}^{N} X_n = 0 \; a.s.$$
$R_n=\frac{1}{N} \sum _{n=1}^N X_n=\frac{1}{N}(\sum _{n=1}^\sqrt{N}{X_n})+\frac{1}{N}(\sum _{n=\sqrt{N}+1}^N{X_n})$
el primer sumando es $ \leq \frac{\sqrt(N)}{N}$ (número de mandatos)
el segundo sumando tiene menos de N términos cada uno de ellos con una expectativa menor que $\frac{1}{\sqrt{N}}$ . Al estar dividido por N, su expectativa es menor que $\frac{1}{\sqrt{N}}$
Así que la expectativa de $R_n$ es $\leq \frac{2}{\sqrt{N}}$