1 votos

Convergencia casi segura de la v.r. de Bernoulli

Supongamos que tenemos una secuencia independiente de v.r. Bernoulli. $(X_n)_{n=1}^\infty$ cada $X_n$ obtiene 1 w.p. $\frac{1}{\sqrt{n}}$ y en caso contrario $0$ . ¿Cómo podemos demostrar que casi con toda seguridad se cumple lo siguiente? $$\lim_{N\rightarrow \infty} \frac{1}{N} \sum _{n=1}^N X_n = 0 $$

0voto

Bey Puntos 1928

Empecemos con una secuencia que se sabe que converge $a.s.$ :

Sea $B_n(p)$ sea una secuencia de iid Bernoulli r.v.s con $P(B_n(p)=1)=p$

En este caso, se sabe que $$\lim_{N\rightarrow \infty} \frac{1}{N} \sum _{n=1}^N B_n(p) = p\; (a.s.)$$

Para un determinado $p \in (0,1]$ podemos dejar que $M_p=\lceil \frac{1}{p^2}\rceil$ y obtenemos:

$$\lim_{N\rightarrow \infty} \frac{1}{N} \sum _{n=M_p}^{N+M_p} X_n \leq \lim_{N\rightarrow \infty} \frac{1}{N} \sum _{n=1}^N B_n(p) = p \;(a.s.)$$

Esto se debe a que tanto $X_n$ y $B_n(p)$ son Bernoulli, pero $X_n$ tiene una probabilidad estrictamente decreciente de ser $1$ . Esto significa que $\frac{1}{N}\sum _{n=M_p}^{N+M_p} X_n$ está limitada en probabilidad por $\frac{1}{N} \sum _{n=1}^N B_n(p)$ es decir,

$$P\left(\frac{1}{N}\sum_{n=M_p}^{N+M_p} X_n > 0\right) \leq P\left(\frac{1}{N} \sum_{n=1}^N B_n(p) > 0\right)$$

De los dos argumentos anteriores, tenemos:

$$\forall p \in (0,1]\;\;\exists M_p\in \mathbb{N}: \lim_{N\rightarrow \infty} \frac{1}{N} \sum _{n=M_p}^{N+M_p} X_n \leq p\; (a.s.) $$

Así, cada valor de $p \in (0,1]$ representa una cota superior casi segura del límite de una serie adecuadamente inicializada en $X_n$ (es decir, un $M_p$ ).

¿Qué pasa con el $M_p-1$ términos que omitir de $\lim\limits_{N\rightarrow \infty} \frac{1}{N} \sum _{n=M_p}^{N+M_p} X_n$ . Sabemos que estos términos pueden sumar como máximo $M_p-1$ por lo que nuestro límite superior revisado es:

$$\lim\limits_{N\rightarrow \infty} \frac{1}{N} \sum _{n=1}^{N} X_n \leq \lim\limits_{N\rightarrow \infty} \left[ \frac{M_p-1}{N} + \frac{1}{N} \sum _{n=M_p}^{N+M_p} X_n \right] \leq 0+p=p\; a.s.$$

Hemos demostrado que cada $p \in (0,1]$ representa un límite superior casi seguro del valor de $\lim\limits_{N\rightarrow \infty} \frac{1}{N} \sum _{n=1}^{N} X_n $

Reconstruyendo en términos de definición de límites, podemos ver que:

$$\forall p \in (0,1], \exists M: \left|\frac{1}{N} \sum _{n=1}^{N} X_n\right|<p\;\forall N>M\; (a.s.) \implies \lim\limits_{N\rightarrow \infty} \frac{1}{N} \sum _{n=1}^{N} X_n = 0 \; a.s.$$

-1voto

Arnaud Mégret Puntos 300

$R_n=\frac{1}{N} \sum _{n=1}^N X_n=\frac{1}{N}(\sum _{n=1}^\sqrt{N}{X_n})+\frac{1}{N}(\sum _{n=\sqrt{N}+1}^N{X_n})$

el primer sumando es $ \leq \frac{\sqrt(N)}{N}$ (número de mandatos)

el segundo sumando tiene menos de N términos cada uno de ellos con una expectativa menor que $\frac{1}{\sqrt{N}}$ . Al estar dividido por N, su expectativa es menor que $\frac{1}{\sqrt{N}}$

Así que la expectativa de $R_n$ es $\leq \frac{2}{\sqrt{N}}$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X