Dejemos que $X_i$ sean variables aleatorias iid con $EX_i = 0$ y $Var X_i=1$ y $S_n=X_1+\cdots+X_n$ . Entonces la ley del logaritmo iterado dice que en casi todas partes tenemos
$$\limsup_{n\to\infty}\frac{S_n}{\sqrt{n\log{\log{n}}}} = \sqrt{2}$$
Por otro lado el teorema central del límite dice
$$\frac{S_n}{\sqrt{n}} \to N(0,1)$$
¿Puede alguien explicar por qué dividir por un $\sqrt{\log{\log{n}}}$ debe pasar de dar $N(0,1)$ a algo delimitado por la constante $\sqrt{2}$ ?
Para tratar de entenderlo he considerado el caso simple en el que cada $X_n$ es $N(0,1)$ para que $S_n/\sqrt{n}$ también se distribuye normalmente como $N(0,1)$ . Entonces $S_n/\sqrt{n\log{\log{n}}}$ se distribuye como $N(0,1/\log{\log{n}})$ . Entonces me parece que para tener incluso sólo $\limsup_{n\to\infty}\frac{S_n}{\sqrt{n\log{\log{n}}}} \le \sqrt{2}$ requiere
$$\sum_{n=3}^\infty P\left(\frac{S_n}{\sqrt{n\log{\log{n}}}} > \sqrt{2}\right) < \infty$$
o si
$$\sum_{n=3}^\infty P\left(\frac{S_n}{\sqrt{n\log{\log{n}}}} > \sqrt{2}\right) = \infty$$
entonces para lograr $\limsup_{n\to\infty}\frac{S_n}{\sqrt{n\log{\log{n}}}} \le \sqrt{2}$ los conjuntos { $ \omega : \frac{S_n}{\sqrt{n\log{\log{n}}}} > \sqrt{2}$ } no puede, por ejemplo, cubrir el espacio de probabilidades una y otra vez de forma infinita. No sé el valor de $\sum_{n=3}^\infty P\left(\frac{S_n}{\sqrt{n\log{\log{n}}}} > \sqrt{2}\right)$ pero como es la suma de las probabilidades de los extremos de las colas de un montón de distribuciones normales es de esperar que no haya una forma cerrada ni siquiera para las sumas parciales.
En la otra dirección para $\limsup_{n\to\infty}\frac{S_n}{\sqrt{n\log{\log{n}}}}$ para no tener un valor inferior a $\sqrt{2}$ ¿no es necesario que algo como lo siguiente se mantenga
$$\sum_{n=3}^\infty P\left(\sqrt{2}-\epsilon < \frac{S_n}{\sqrt{n\log{\log{n}}}} \le \sqrt{2}\right) = \infty$$
¿Puede alguien explicar por qué este número $\sqrt{2}$ debería aparecer?
Ya pregunté lo anterior en math.stackexchange ( enlace ) pero al parecer moverlo aquí era imposible de ahí el post duplicado.
11 votos
La prueba pasa por un montón de Borel-Cantelli. Heurísticamente, si crees en el teorema central del límite, $S_n$ debe ser normal con media 0 y varianza $n$ para que $S_n/\sqrt n$ es aproximadamente $N(0,1)$ . El aspecto de la $\sqrt{2\log\log n}$ es más o menos porque $\mathbb P(N>\sqrt{2\log\log n})$ está en la cúspide de la sumabilidad. De modo que $\mathbb P(N>\sqrt{2.000001\log\log n})$ es sumable, por lo que se produce un número finito de veces (esta es la parte más fácil), mientras que $\mathbb P(N>\sqrt{1.999999\log\log n})$ no es sumable y, por tanto, [se omiten bastantes detalles técnicos molestos] ocurre con infinita frecuencia.
0 votos
Para complementar ligeramente el comentario de Anthony: recordemos que la distribución normal en el teorema del límite central (con varianza $1$ ) es $\frac{1}{ \sqrt{2\pi}} e^{\frac{x^2}{2 }} $ . A grandes rasgos, es el 2 en el denominador del exponente lo que finalmente da lugar al $\sqrt{2}$ en la ley del logaritmo iterado.
1 votos
@Anthony: ¿Estás diciendo que con $S_n$ teniendo la media $0$ y la varianza $n$ que de hecho es cierto que $$\sum_{n=3}^\infty P\left(\frac{S_n}{\sqrt{n}} > \sqrt{(2+\epsilon)\log{\log{n}}}\right) < \infty$$ y $$\sum_{n=3}^\infty P\left(\frac{S_n}{\sqrt{n}} > \sqrt{(2-\epsilon)\log{\log{n}}}\right) = \infty$$
0 votos
@desconocido: eso es claramente falso, pero creo que es cierto si el sumando se divide por n.
0 votos
En realidad, para que Borel-Cantelli funcione en esta situación es necesario muestrear puntos de tiempo a lo largo de una progresión geométrica, no linealmente espaciada, es decir, para cualquier $q > 1$ , $$ \sum_{n\in\lbrace q^r\colon r\in\mathbb{N}\rbrace}\mathbb{P}\left(\frac {S_n}{\sqrt{n}} > \sqrt{A\log\log n}\right) $$ es finito para $A > 2$ e infinito para $A < 2$ . Esto se desprende de $\mathbb{P}(S_n/\sqrt{n} > K)\sim (2\pi)^{-1/2}K^{-1}\exp(-K^2/2)$ .
1 votos
George: Es una propiedad muy curiosa que me parece sorprendente. Habría pensado que la convergencia dependería de la asintótica de $K=O(f(n))$ y no en el coeficiente constante de $K$ .
1 votos
@Anthony Pero $\mathbb P(N>\sqrt{C\log\log n})$ no es sumable sobre naturales para cualquier C. Pero $\mathbb P(N>\sqrt{(2+\epsilon)\log n})$ es. Así que es más sutil.
1 votos
@A.S.: correcto. Creo que el comentario de George Lowther lo dice bien. Hay que imaginarse que se hace Borel-Cantelli a lo largo de tiempos geométricamente espaciados. A lo largo de estos tiempos, la sumabilidad funciona.
0 votos
@Anthony Acabo de ver un enfoque alternativo, aparentemente más intuitivo: $X_t=e^{-t}B(e^{2t})$ es un proceso O-U estándar y como sus correlaciones disminuyen rápidamente (exponencialmente a diferencia del movimiento browniano), podemos aplicar Borel Cantelli directamente a la suma de probabilidades de sus desviaciones e ignorar las dependencias. El núcleo de la transformación es el mismo, pero opera sobre objetos probabilísticos más explícitos.