Como en la respuesta de @Did, dejamos que $f(n)=(\log \log n)^{-1}$ . Además, por coherencia con la literatura existente (y la respuesta de Did), dejemos que $M_n=\max\{X_k;1\leq k\leq n\}$ .
Teorema : $P\left(\lim_{n\rightarrow\infty}\frac{\log n}{\log \log n}\left(\frac{M_n}{\sqrt{2\log n}}-1\right)\in\left[-\frac{1}{4},\frac{1}{4}\right]\right)=1$ si existe.
En primer lugar, expondremos un par de lemas útiles para "Modelado de sucesos extremos" de Embrechts, Klüppelberg y Mikosch . La primera se deduce del lema de Borel-Cantelli; el esbozo de la demostración de la segunda se encuentra en la página 170, con referencias a la demostración completa.
Lemma 1 (Teorema abreviado 3.5.1 en Embrechts et al. ) : Supongamos que $(u_n)$ es no decreciente. Entonces $\sum_{n=1}^\infty P(X_1>u_n)<\infty$ implica que $P(M_n>u_n~~\text{i.o.})=0$ .
Lemma 2 (Teorema abreviado 3.5.2 en Embrechts et al. ) : Supongamos que $(u_n)$ sea no decreciente y se cumplan las siguientes condiciones: $P(X_1\geq u_n)\rightarrow 0$ y $nP(X_1\geq u_n)\rightarrow \infty$ . Entonces $\sum_{n=1}^\infty P(X_1>u_n)\exp[-nP(X_1>u_n)]<\infty$ implica que $P(M_n\leq u_n~~\text{i.o.})=0$ .
(i.o. significa aquí "infinitamente a menudo").
Prueba: Primero demostraremos el límite superior y después el inferior.
Para el límite superior $u^u_n=\sqrt{2\log n}+\frac{\sqrt{2}(\frac{1}{4}+\epsilon)\log\log n}{\sqrt{\log n}}$ donde $\epsilon>0$ . Utilizando la aproximación estándar para la distribución de la cola de una variable aleatoria gaussiana $P(X_1>x)\approx\frac{1}{\sqrt{2\pi}x}e^{-x^2/2}$ obtenemos: $$\begin{array}{rcl}P(X_1>u^u_n)&\approx&\frac{\exp\left[-\log n -2(\frac{1}{4}+\epsilon)\log\log n-\mathcal{O}\left(\frac{(\log\log n)^2}{\log n}\right)\right]}{\sqrt{2\pi}\left(\sqrt{2\log n}+\mathcal{O}\left(\frac{\log\log n}{\sqrt{\log n}}\right)\right)}\\ &=&\frac{1}{C_1n(\log n)^{\frac{1}{2}+2(\frac{1}{4}+\epsilon)}} \end{array}$$ donde $C_1=\mathcal{O}(1)$ recoge los términos de orden inferior y las constantes. Utilizando el Prueba de condensación de Cauchy se puede comprobar fácilmente: $$\sum_{n=1}^\infty n^{-1}(\log n)^{-1-2\epsilon}<\infty$$ Por el Lemma 1, $P(M_n>u^u_n\text{i.o.})=0$ . Unas cuantas manipulaciones aritméticas dan como resultado que: $$\tag{1}P\left(\frac{\log n}{\log \log n}\left(\frac{M_n}{\sqrt{2\log n}}-1\right)>\frac{1}{4}+\epsilon\text{i.o.}\right)=0$$
Para el límite inferior $u^l_n=\sqrt{2\log n}-\frac{\sqrt{2}(\frac{1}{4}+\epsilon)\log\log n}{\sqrt{\log n}}$ donde $\epsilon>0$ . Utilizando de nuevo la misma aproximación para la distribución de la cola de una variable aleatoria gaussiana, obtenemos: $$\begin{array}{rcl}P(X_1>u^l_n)&\approx&\frac{\exp\left[-\log n +2(\frac{1}{4}+\epsilon)\log\log n-\mathcal{O}\left(\frac{(\log\log n)^2}{\log n}\right)\right]}{\sqrt{2\pi}\left(\sqrt{2\log n}+\mathcal{O}\left(\frac{\log\log n}{\sqrt{\log n}}\right)\right)}\\ &=&\frac{(\log n)^\epsilon}{C_2n} \end{array}$$ donde $C_2=\mathcal{O}(1)$ recoge los términos de orden inferior y las constantes. Es evidente que $P(X_1>u^l_n)\rightarrow 0$ y $nP(X_1>u^l_n)\rightarrow\infty$ por lo que se cumplen las condiciones necesarias para el lema 2. Ahora bien,
$$P(X_1>u^l_n)\exp[-nP(X_1>u^l_n)]=\frac{(\log n)^\epsilon}{C_2 ne^{(\log n)^\epsilon/C_2}}$$
De nuevo empleando el Prueba de condensación de Cauchy podemos demostrarlo: $$\sum_{n=1}^\infty \frac{(\log n)^\epsilon}{C_2 ne^{(\log n)^\epsilon/C_2}}<\infty$$ Por el lema 2, $P(M_n<u^l_n\text{i.o})=0$ . Unas cuantas manipulaciones aritméticas dan como resultado que: $$\tag{2}P\left(\frac{\log n}{\log \log n}\left(\frac{M_n}{\sqrt{2\log n}}-1\right)<-\frac{1}{4}-\epsilon\text{i.o.}\right)=0$$ Combinando (1) y (2) se obtiene el resultado deseado.
Observación : Esto demuestra un límite en el límite si el límite existe (de hecho, como Did señala, esto demuestra $\limsup$ es $\leq 1/4$ y $\liminf$ es $\geq 1/4$ ). Me pregunto si se puede determinar si el límite converge de hecho a algún número fijo $C\in\left[-\frac{1}{4},\frac{1}{4}\right]$ o "rebota" (similar a una onda sinusoidal). Tal vez la convergencia de Did en probabilidad a $-\frac{1}{4}$ ¿se puede aprovechar aquí de alguna manera?