32 votos

¿Intuición de la ley del logaritmo iterado?

Dejemos que $X_i$ sean variables aleatorias iid con $EX_i = 0$ y $Var X_i=1$ y $S_n=X_1+\cdots+X_n$ . Entonces la ley del logaritmo iterado dice que en casi todas partes tenemos

$$\limsup_{n\to\infty}\frac{S_n}{\sqrt{n\log{\log{n}}}} = \sqrt{2}$$

Por otro lado el teorema central del límite dice

$$\frac{S_n}{\sqrt{n}} \to N(0,1)$$

¿Puede alguien explicar por qué dividir por un $\sqrt{\log{\log{n}}}$ debe pasar de dar $N(0,1)$ a algo delimitado por la constante $\sqrt{2}$ ?

Para tratar de entenderlo he considerado el caso simple en el que cada $X_n$ es $N(0,1)$ para que $S_n/\sqrt{n}$ también se distribuye normalmente como $N(0,1)$ . Entonces $S_n/\sqrt{n\log{\log{n}}}$ se distribuye como $N(0,1/\log{\log{n}})$ . Entonces me parece que para tener incluso sólo $\limsup_{n\to\infty}\frac{S_n}{\sqrt{n\log{\log{n}}}} \le \sqrt{2}$ requiere

$$\sum_{n=3}^\infty P\left(\frac{S_n}{\sqrt{n\log{\log{n}}}} > \sqrt{2}\right) < \infty$$

o si

$$\sum_{n=3}^\infty P\left(\frac{S_n}{\sqrt{n\log{\log{n}}}} > \sqrt{2}\right) = \infty$$

entonces para lograr $\limsup_{n\to\infty}\frac{S_n}{\sqrt{n\log{\log{n}}}} \le \sqrt{2}$ los conjuntos { $ \omega : \frac{S_n}{\sqrt{n\log{\log{n}}}} > \sqrt{2}$ } no puede, por ejemplo, cubrir el espacio de probabilidades una y otra vez de forma infinita. No sé el valor de $\sum_{n=3}^\infty P\left(\frac{S_n}{\sqrt{n\log{\log{n}}}} > \sqrt{2}\right)$ pero como es la suma de las probabilidades de los extremos de las colas de un montón de distribuciones normales es de esperar que no haya una forma cerrada ni siquiera para las sumas parciales.

En la otra dirección para $\limsup_{n\to\infty}\frac{S_n}{\sqrt{n\log{\log{n}}}}$ para no tener un valor inferior a $\sqrt{2}$ ¿no es necesario que algo como lo siguiente se mantenga

$$\sum_{n=3}^\infty P\left(\sqrt{2}-\epsilon < \frac{S_n}{\sqrt{n\log{\log{n}}}} \le \sqrt{2}\right) = \infty$$

¿Puede alguien explicar por qué este número $\sqrt{2}$ debería aparecer?

Ya pregunté lo anterior en math.stackexchange ( enlace ) pero al parecer moverlo aquí era imposible de ahí el post duplicado.

11 votos

La prueba pasa por un montón de Borel-Cantelli. Heurísticamente, si crees en el teorema central del límite, $S_n$ debe ser normal con media 0 y varianza $n$ para que $S_n/\sqrt n$ es aproximadamente $N(0,1)$ . El aspecto de la $\sqrt{2\log\log n}$ es más o menos porque $\mathbb P(N>\sqrt{2\log\log n})$ está en la cúspide de la sumabilidad. De modo que $\mathbb P(N>\sqrt{2.000001\log\log n})$ es sumable, por lo que se produce un número finito de veces (esta es la parte más fácil), mientras que $\mathbb P(N>\sqrt{1.999999\log\log n})$ no es sumable y, por tanto, [se omiten bastantes detalles técnicos molestos] ocurre con infinita frecuencia.

0 votos

Para complementar ligeramente el comentario de Anthony: recordemos que la distribución normal en el teorema del límite central (con varianza $1$ ) es $\frac{1}{ \sqrt{2\pi}} e^{\frac{x^2}{2 }} $ . A grandes rasgos, es el 2 en el denominador del exponente lo que finalmente da lugar al $\sqrt{2}$ en la ley del logaritmo iterado.

1 votos

@Anthony: ¿Estás diciendo que con $S_n$ teniendo la media $0$ y la varianza $n$ que de hecho es cierto que $$\sum_{n=3}^\infty P\left(\frac{S_n}{\sqrt{n}} > \sqrt{(2+\epsilon)\log{\log{n}}}\right) < \infty$$ y $$\sum_{n=3}^\infty P\left(\frac{S_n}{\sqrt{n}} > \sqrt{(2-\epsilon)\log{\log{n}}}\right) = \infty$$

17voto

marcospereira Puntos 3144

Un buen dato que ayuda a la intuición es que

el $\log\log n$ factor "desaparece en una subsecuencia escasa".

Para ser precisos, veamos primero el siguiente enunciado equivalente de la Ley del logaritmo iterado (Khintchine 1924):

Dejemos que $X=(X_{0},X_{1},\ldots)$ sea una variable aleatoria en $\{0,1\}^{\mathbb N}$ teniendo la distribución de monedas justas. Sea $S_{n}=\sum_{k=0}^{n-1}X_{k}$ . Entonces con probabilidad uno, $$ \limsup_{n\to\infty}\frac{S_{n}-\frac{n}{2}}{\varphi(n)\sqrt{n}}=1, $$ donde $\varphi(n)=\sqrt{\frac{1}{2}\log\log n}$ .

Ahora, la pregunta es, ya que la desviación estándar de $S_{n}$ es simplemente $\sqrt{n}$ por qué hay ese extraño $\varphi(n)$ ?

Michel Weber ( Ley del logaritmo iterado para subsecuencias , 1990) dio la siguiente respuesta: podemos sustituir $\varphi$ por una función de crecimiento arbitrariamente lento si sustituimos $\limsup_{n\rightarrow\infty}$ por $\limsup_{n\in N}$ para un conjunto suficientemente disperso $N\subseteq\mathbb N$ . En detalle:

Dejemos que $N=\{\nu_{1}<\nu_{2}<\cdots\}\subseteq\mathbb N$ y que $\{Y_{n}\}$ sea una secuencia i.i.d. con $\mathbb E(Y_{n})=0$ y $\mathbb E(Y_{n}^{2})=1$ . Sea $S_{n}=Y_{1}+\cdots+Y_{n}$ . Sea $$ p_{n}=|\{m\le n: N\cap (2^{m-1},2^{m}]\ne\varnothing\}|, $$ $$ \mathcal L(k)=\ln p_{n}\quad\text{if}\quad k\in (2^{n-1},2^{n}]. $$ Entonces tenemos $$ \limsup_{j\to\infty}\frac{S_{\nu_{j}}}{\sqrt{2\nu_{j}\mathcal L(\nu_{j})}}=1 \quad\text{a.s.} $$

Para $N=\mathbb N$ obtenemos la ley habitual del logaritmo iterado. Para conjuntos dispersos $N$ la función $\mathcal L(\nu_{j})$ es una función de crecimiento arbitrariamente lento, por lo que el dominador es la desviación estándar ( $\sqrt{\nu_{j}}$ ) por un pequeño factor.

Lo que sucede es que estamos viendo las sumas finitas $S_n$ sólo para $n\in N$ donde $N$ es escasa. Pero $S_n$ sigue siendo $\sum_{k=0}^{n-1}X_k$ sin restricción de $k$ estar en $N$ . Por lo tanto, el cálculo de $S_n$ funciona de forma ininterrumpida, pero sólo abrimos los ojos para inspeccionarla en contadas ocasiones.

0voto

CookieOfFortune Puntos 8635

Ya que la parte principal de la función de densidad de la distribución Normal es exp(-x^2/2). Así que tenemos que añadir el 2 para cancelar el denominador en la parte exponencial de la función de densidad de la distribución Normal.

0 votos

¿Cómo explica esto la $\sqrt{log\log n}$ ?

0 votos

Bien, entonces $\exp(-x^2/2) = \frac{1}{n\log n}$ que es lo que @Anthony describe como "en la cúspide de la sumabilidad" ya que $\frac{1}{n\log n\,(\log\log n)^2}$ digamos, es sumable.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X