4 votos

Ley fuerte de los grandes números para variables aleatorias cuadradas-integrables y no correlacionadas con varianza acotada

Dejemos que $(\Omega,\mathcal{A},P)$ sea un espacio de probabilidad y $(X_n)_{n\in\mathbb{N}}$ sea una secuencia de variables aleatorias cuadradas-integrables y no correlacionadas (tal vez necesitemos realmente la independencia) $\Omega\to [0,\infty]$ con $V:=\sup_{n\in\mathbb{N}}\operatorname{Var}X_n<\infty$ .

Además, dejemos que $$X^{(n)}:=\sum_{i=1}^nX_i\;\;\;\text{and}\;\;\;\overline{X}^{(n)}:=\frac{1}{n}X^{(n)}$$

Quiero mostrar, que se mantiene: $$\limsup_{i\to\infty}\left|\overline{X}^{(i)}-E\left[\overline{X}^{(i)}\right]\right|=0\;\;\;\text{almost surely}\tag{1}$$

Prueba : Dejemos que $\varepsilon>0$ y $$k_n:=\lfloor(1+\varepsilon)^n\rfloor\ge\frac{1}{2}(1+\varepsilon)^n\tag{2}$$

La desigualdad de Chebyshev produce \begin{equation} \begin{split} \sum_{n\in\mathbb{N}}\Pr\left[\left|\overline{X}^{(k_n)}-E\left[\overline{X}^{(k_n)}\right]\right|\ge\frac{1}{(1+\varepsilon)^{n/4}}\right]&\le&\sum_{n\in\mathbb{N}}(1+\varepsilon)^{n/2}\operatorname{Var}\overline{X}^{(k_n)}\\ &\stackrel{(*)}{\le}&\sum_{n\in\mathbb{N}}(1+\varepsilon)^{n/2}\frac{V}{k_n}\\&\stackrel{\text{(2)}}{\le}&2V\sum_{n\in\mathbb{N}}\frac{1}{(1+\varepsilon)^{n/2}}&<\infty \end{split} \end{equation} donde $(*)$ se mantiene por descorrelación y el fórmula de Bienaymé .

Así, el lema de Borel-Cantelli produce $$\Pr\left[\limsup_{n\to\infty}\left\{\left|\overline{X}^{(k_n)}-E\left[\overline{X}^{(k_n)}\right]\right|\ge\frac{1}{(1+\varepsilon)^{n/4}}\right\}\right]=0,$$ es decir, hay un $n\in\mathbb{N}$ , tal que para todo $m\ge n$ $$\left|\overline{X}^{(k_n)}-E\left[\overline{X}^{(k_n)}\right]\right|<\frac{1}{(1+\varepsilon)^{n/4}}\;\;\;\text{almost surely}$$ Así que, tenemos $$\limsup_{n\to\infty}\left|\overline{X}^{(k_n)}-E\left[\overline{X}^{(k_n)}\right]\right|=0\;\;\;\text{alsmost surely}\tag{3}$$ Ahora, observa que $$k_{n+1}\le(1+2\varepsilon)k_n$$ lo que implica que \begin{equation} \begin{split} \frac{1}{1+2\varepsilon}\overline{X}^{(k_n)}&\le& \frac{k_n}{k_{n+1}}\overline{X}^{(k_n)}\\ &=&\frac{1}{k_{n+1}}X^{(k_n)}\\&\le& \overline{X}^{(i)}\\&\le&\frac{1}{k_n}X^{(k_{n+1})}\\&\le &(1+2\varepsilon)\overline{X}^{(k_{n+1})} \end{split}\tag{4} \end{equation} para todos $i\in [k_n,k_{n+1}]\cap\mathbb{N}$ .

¿Cómo podemos concluir que $$L:=\limsup_{i\to\infty}\left|\overline{X}^{(i)}-E\left[\overline{X}^{(i)}\right]\right|=0\tag{5}$$ ¿casi seguro?

Mi primera idea fue utilizar $(4)$ para ver que $$L\le\limsup{n\to\infty}\left|(1+2\varepsilon)\overline{X}^{(k{n+1})}-E\left[\frac{1}{1+2\varepsilon}\overline{X}^{(k_n)}\right]\right|\tag{6}$$ Sin embargo, no puedo aprovechar $(3)$ en $(6)$ .

1voto

Michael Puntos 5270

Si además incluyes "medios uniformemente acotados", para que $E[X_n] \leq C$ para todos $n$ (para alguna constante $C$ ) entonces estás bien. Tome su último ecuación (4) (que en realidad es la ecuación (6)) y sumar y restar lo mismo para obtener los términos $E[\overline{X}^{(k_n)}](1+2\epsilon) - E[\overline{X}^{(k_n)}](1+2\epsilon)$ para terminar (a través de la desigualdad del triángulo).


También expresaría su conclusión antes de (3) de manera diferente: "Casi con toda seguridad, existe un $n$ tal que $|\overline{X}^{k_m}-E[\overline{X}^{k_m}]| < 1/(1+\epsilon)^{m/4}$ para todos $m \geq n$ .


Me pareció que eliminar la suposición de "media uniformemente acotada" era muy similar a eliminar la suposición de "no negatividad", por lo que una debería implicar a la otra. Por tanto, al principio pensé que la no negatividad (y por tanto la "media uniformemente acotada") era crucial. Sin embargo, después de jugar, creo que la siguiente es una prueba para el caso general de "no negatividad", que tampoco requiere medias uniformemente acotadas. La prueba utiliza la existencia de una secuencia de enteros positivos no decrecientes $k_n$ que satisfagan:

1) $k_1 = 1$ .

2) $\lim_{n\rightarrow\infty} k_n = \infty$

3) $\sum_{n=1}^{\infty} 1/k_n < \infty$

4) $\sum_{n=1}^{\infty} \left(\frac{k_{n+1}}{k_n}-1\right)^2 < \infty$ .

Utilizando $k_n = \left\lfloor \left(1 + \frac{1}{2n^{0.6}}\right)^n\right\rfloor$ será suficiente, ya que $k_n \approx e^{(1/2)n^{0.4}}$ y por tanto aumenta de forma superlineal, pero $(k_{n+1}/k_n-1)^2 \approx \frac{1}{4n^{1.2}}$ .

Reclamación: Si $\{X_n\}_{n=1}^{\infty}$ no están correlacionados y $Var(X_n) \leq V$ para todos $n$ (para alguna constante finita $V$ ), entonces (con probabilidad 1): $$ \lim_{n\rightarrow\infty} \frac{1}{n}\sum_{i=1}^n (X_n-E[X_n]) = 0 $$

Prueba: Sea $k_n$ sea una secuencia no decreciente de enteros positivos con las cuatro propiedades anteriores. Fijar $\epsilon>0$ . Por Chebyshev:

$$ Pr\left[\left|\frac{1}{k_n}\sum_{i=1}^{k_n} (X_i-E[X_i])\right| \geq \epsilon \right] \leq \frac{k_n V}{\epsilon^2 k_n^2} = \frac{V}{\epsilon^2 k_n} $$ Por lo tanto, ya que $\sum_{n=1}^{\infty} 1/k_n < \infty$ tenemos: $$ \sum_{n=1}^{\infty} Pr\left[\left|\frac{1}{k_n}\sum_{i=1}^{k_n} (X_i-E[X_i])\right| \geq \epsilon \right] < \infty $$ y así (con probabilidad 1): $$\limsup_{n\rightarrow\infty} \left|\frac{1}{k_n}\sum_{i=1}^{k_n} (X_i-E[X_i])\right| \leq \epsilon $$ Esto es válido para todos los $\epsilon>0$ y así (con probabilidad 1): $$ \lim_{n\rightarrow\infty} \frac{1}{k_n}\sum_{i=1}^{k_n} (X_i-E[X_i]) = 0 \: \: \: (*) $$

Ahora arreglar $m \in \{1, 2, 3, \ldots\}$ y definir $n_m$ como el menor índice tal que $k_{n_m} \leq m \leq k_{n_m+1}$ . Entonces: \begin{align} &\frac{1}{m}\sum_{i=1}^m (X_i-E[X_i])\\ &=\frac{k_{n_m+1}}{m}\frac{1}{k_{n_m+1}}\sum_{i=1}^{k_{n_m+1}} (X_i-E[X_i]) - \frac{1}{m}\sum_{i=m+1}^{k_{n_m+1}} (X_i-E[X_i]) \end{align}

Si podemos mostrar que ambos términos del lado derecho van a 0 como $m\rightarrow \infty$ hemos terminado. Tomando un límite como $m\rightarrow \infty$ del primer término del lado derecho da 0 (con probabilidad 1) por la ecuación (*). Basta con demostrar que (con probabilidad 1):

$$ \lim_{m\rightarrow\infty} \frac{1}{m} \sum_{i=m+1}^{k_{n_m+1}}(X_i-E[X_i])=0 $$

A tal fin, fijar $\delta>0$ . Tenemos por Chebyshev: \begin{align} &Pr\left[\left|\frac{1}{m} \sum_{i=m+1}^{k_{n_m+1}}(X_i-E[X_i])\right| \geq \delta\right] \\ & \leq \frac{V(k_{n_m+1}-m)}{m^2\delta^2} \\ & \leq \frac{V(k_{n_m+1}-k_{n_m})}{k_{n_m}^2 \delta^2} \end{align}

Suma de $m$ da:

\begin{align} &\sum_{m=1}^{\infty} Pr\left[\left|\frac{1}{m}\sum_{i=m+1}^{k_{n_m+1}}(X_i-E[X_i])\right| \geq \delta\right] \\ &\leq \frac{V}{\delta^2}\sum_{m=1}^{\infty} \frac{(k_{n_m+1}-k_{n_m})}{k_{n_m}^2}\\ &\leq \frac{V}{\delta^2}\sum_{n=1}^{\infty}\frac{(k_{n+1}-k_n)^2}{k_{n}^2} \\ &= \frac{V}{\delta^2}\sum_{n=1}^{\infty} \left(\frac{k_{n+1}}{k_n}-1\right)^2 \\ &< \infty \end{align} Así, con la probabilidad 1:

$$ \limsup_{m\rightarrow\infty} \left|\frac{1}{m} \sum_{i=m+1}^{k_{n_m+1}}(X_i-E[X_i])\right| \leq \delta $$

Esto es válido para todos los $\delta$ y, por lo tanto, el $\limsup$ debe ser 0 (con probabilidad 1).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X