5 votos

Convergencia de una secuencia que implica el máximo de variables aleatorias gaussianas i.i.d.

Es bien sabido que, para una secuencia de $n$ variables aleatorias gaussianas estándar i.i.d. $X_1,\ldots,X_n$ donde $X_\max=\max(X_1,\ldots,X_n)$ se cumple el siguiente resultado de convergencia:

$$P\left(\lim_{n\rightarrow\infty}\frac{X_\max}{\sqrt{2\log n}}=1\right)=1$$

o, $\frac{X_\max}{\sqrt{2\log n}}\rightarrow1$ casi con seguridad (para una prueba de esta convergencia, véase el Ejemplo 4.4.1 en Galambos "Asymptotic Theory of Extreme Order Statistics").

Me pregunto qué ocurre con el siguiente límite:

$$L=\lim_{n\rightarrow\infty}\left[\left(\frac{X_\max}{\sqrt{2\log n}}-1\right)f(n)\log(n)\right]$$ donde $f(n)=o(1)$ .

Es $L=0$ ¿o infinito? ¿Depende de $f(n)$ ? No estoy seguro de cómo tratar aquí la forma indeterminada...

5voto

Did Puntos 1

Sea $M_n=\max\{X_k;1\leqslant k\leqslant n\}$ y recordemos primero cómo la asintótica de primer orden de $M_n$ obtiene. Para cada $x$ , $$ P[M_n\leqslant x]=P[X_1\leqslant x]^n, $$ y las estimaciones estándar de la cola gaussiana muestran que, cuando $x\to\infty$ , $$ P[X_1\gt x]=1/\theta(x),\qquad \theta(x)\sim x\sqrt{2\pi}\mathrm e^{x^2/2}. $$ Así, si $\theta(u_n)\ll n$ entonces $P[M_n\leqslant u_n]\to0$ mientras que, si $\theta(v_n)\gg n$ entonces $P[M_n\leqslant v_n]\to1$ . Esto es válido con $u_n=(1-\varepsilon)\sqrt{2\log n}$ y $v_n=(1+\varepsilon)\sqrt{2\log n}$ para cada $\varepsilon$ Por lo tanto $M_n/\sqrt{2\log n}$ converge en probabilidad a $1$ .

Para ir más lejos, supongamos que $x_n=(1+z_n)\sqrt{2\log n}$ con $z_n\to0$ . Entonces, $$ n^{-1}\theta(x_n)\sim2\sqrt\pi\exp\left( (2z_n+z_n^2)\log n+\tfrac12\log\log n\right). $$ En particular, si $2z_n\log n=t-\tfrac12\log\log n$ para un $t$ entonces $n^{-1}\theta(x_n)\sim\sqrt{4\pi}\mathrm e^{t}$ de ahí $P[M_n\leqslant x_n]\to\exp(-\mathrm e^{-t}/\sqrt{4\pi})$ . Esto significa que $$ T_n=2\log n\left(\frac{M_n}{\sqrt{2\log n}}-1\right)+\frac12\log\log n+\frac12\log(4\pi) $$ converge en distribución a una variable aleatoria $T$ tal que, para cada $t$ , $$ P[T\leqslant t]=\exp(-\mathrm e^{-t}). $$ En particular, $$ U_n=\frac{\log n}{\log\log n}\left(\frac{M_n}{\sqrt{2\log n}}-1\right)\to-\frac14\ \text{in probability.} $$ Edita: Por cada $n\geqslant2$ consideremos la variable aleatoria $$ V_n=\frac{\log n}{\log\log n}\left(\frac{X_n}{\sqrt{2\log n}}-1\right). $$ La asintótica de la cola gaussiana utilizada anteriormente muestra que, para cada $t$ , $$ P[V_n\geqslant t]\sim\frac1{2\sqrt\pi\cdot n\cdot(\log n)^{1/2+2t}}. $$ Si $t\lt1/4$ la serie $\sum\limits_nP[V_n\geqslant t]$ diverge, de ahí que el lema de Borel-Cantelli (parte difícil) demuestre que, casi con toda seguridad $V_n\geqslant t$ para infinitas $n$ . Desde $U_n\geqslant V_n$ , casi seguro $U_n\geqslant t$ para infinitas $n$ .

Si $t\gt1/4$ la serie $\sum\limits_nP[V_n\geqslant t]$ converge, de ahí que el lema de Borel-Cantelli (parte fácil) demuestre que, casi con seguridad $V_n\leqslant t$ para cada $n$ suficientemente grande. Por lo tanto, $V_n\leqslant t$ para cada $n$ con probabilidad positiva, por lo que $U_n\leqslant t$ para cada $n$ con probabilidad positiva. Dado que $M_n\to\infty$ casi con seguridad, asintóticamente $U_n$ no depende de $(X_i)_{i\leqslant k}$ para cada $k$ . Así, $\limsup U_n$ es una variable aleatoria asintótica y $[\limsup U_n\leqslant t]$ tiene probabilidad $0$ o $1$ .

Por fin, $$ \limsup\limits_{n\to\infty}U_n=+\frac14\ \text{almost surely.} $$

-1voto

Presidenten Puntos 1889

Como en la respuesta de @Did, dejamos que $f(n)=(\log \log n)^{-1}$ . Además, por coherencia con la literatura existente (y la respuesta de Did), dejemos que $M_n=\max\{X_k;1\leq k\leq n\}$ .

Teorema : $P\left(\lim_{n\rightarrow\infty}\frac{\log n}{\log \log n}\left(\frac{M_n}{\sqrt{2\log n}}-1\right)\in\left[-\frac{1}{4},\frac{1}{4}\right]\right)=1$ si existe.

En primer lugar, expondremos un par de lemas útiles para "Modelado de sucesos extremos" de Embrechts, Klüppelberg y Mikosch . La primera se deduce del lema de Borel-Cantelli; el esbozo de la demostración de la segunda se encuentra en la página 170, con referencias a la demostración completa.

Lemma 1 (Teorema abreviado 3.5.1 en Embrechts et al. ) : Supongamos que $(u_n)$ es no decreciente. Entonces $\sum_{n=1}^\infty P(X_1>u_n)<\infty$ implica que $P(M_n>u_n~~\text{i.o.})=0$ .

Lemma 2 (Teorema abreviado 3.5.2 en Embrechts et al. ) : Supongamos que $(u_n)$ sea no decreciente y se cumplan las siguientes condiciones: $P(X_1\geq u_n)\rightarrow 0$ y $nP(X_1\geq u_n)\rightarrow \infty$ . Entonces $\sum_{n=1}^\infty P(X_1>u_n)\exp[-nP(X_1>u_n)]<\infty$ implica que $P(M_n\leq u_n~~\text{i.o.})=0$ .

(i.o. significa aquí "infinitamente a menudo").

Prueba: Primero demostraremos el límite superior y después el inferior.

Para el límite superior $u^u_n=\sqrt{2\log n}+\frac{\sqrt{2}(\frac{1}{4}+\epsilon)\log\log n}{\sqrt{\log n}}$ donde $\epsilon>0$ . Utilizando la aproximación estándar para la distribución de la cola de una variable aleatoria gaussiana $P(X_1>x)\approx\frac{1}{\sqrt{2\pi}x}e^{-x^2/2}$ obtenemos: $$\begin{array}{rcl}P(X_1>u^u_n)&\approx&\frac{\exp\left[-\log n -2(\frac{1}{4}+\epsilon)\log\log n-\mathcal{O}\left(\frac{(\log\log n)^2}{\log n}\right)\right]}{\sqrt{2\pi}\left(\sqrt{2\log n}+\mathcal{O}\left(\frac{\log\log n}{\sqrt{\log n}}\right)\right)}\\ &=&\frac{1}{C_1n(\log n)^{\frac{1}{2}+2(\frac{1}{4}+\epsilon)}} \end{array}$$ donde $C_1=\mathcal{O}(1)$ recoge los términos de orden inferior y las constantes. Utilizando el Prueba de condensación de Cauchy se puede comprobar fácilmente: $$\sum_{n=1}^\infty n^{-1}(\log n)^{-1-2\epsilon}<\infty$$ Por el Lemma 1, $P(M_n>u^u_n\text{i.o.})=0$ . Unas cuantas manipulaciones aritméticas dan como resultado que: $$\tag{1}P\left(\frac{\log n}{\log \log n}\left(\frac{M_n}{\sqrt{2\log n}}-1\right)>\frac{1}{4}+\epsilon\text{i.o.}\right)=0$$

Para el límite inferior $u^l_n=\sqrt{2\log n}-\frac{\sqrt{2}(\frac{1}{4}+\epsilon)\log\log n}{\sqrt{\log n}}$ donde $\epsilon>0$ . Utilizando de nuevo la misma aproximación para la distribución de la cola de una variable aleatoria gaussiana, obtenemos: $$\begin{array}{rcl}P(X_1>u^l_n)&\approx&\frac{\exp\left[-\log n +2(\frac{1}{4}+\epsilon)\log\log n-\mathcal{O}\left(\frac{(\log\log n)^2}{\log n}\right)\right]}{\sqrt{2\pi}\left(\sqrt{2\log n}+\mathcal{O}\left(\frac{\log\log n}{\sqrt{\log n}}\right)\right)}\\ &=&\frac{(\log n)^\epsilon}{C_2n} \end{array}$$ donde $C_2=\mathcal{O}(1)$ recoge los términos de orden inferior y las constantes. Es evidente que $P(X_1>u^l_n)\rightarrow 0$ y $nP(X_1>u^l_n)\rightarrow\infty$ por lo que se cumplen las condiciones necesarias para el lema 2. Ahora bien,

$$P(X_1>u^l_n)\exp[-nP(X_1>u^l_n)]=\frac{(\log n)^\epsilon}{C_2 ne^{(\log n)^\epsilon/C_2}}$$

De nuevo empleando el Prueba de condensación de Cauchy podemos demostrarlo: $$\sum_{n=1}^\infty \frac{(\log n)^\epsilon}{C_2 ne^{(\log n)^\epsilon/C_2}}<\infty$$ Por el lema 2, $P(M_n<u^l_n\text{i.o})=0$ . Unas cuantas manipulaciones aritméticas dan como resultado que: $$\tag{2}P\left(\frac{\log n}{\log \log n}\left(\frac{M_n}{\sqrt{2\log n}}-1\right)<-\frac{1}{4}-\epsilon\text{i.o.}\right)=0$$ Combinando (1) y (2) se obtiene el resultado deseado.

Observación : Esto demuestra un límite en el límite si el límite existe (de hecho, como Did señala, esto demuestra $\limsup$ es $\leq 1/4$ y $\liminf$ es $\geq 1/4$ ). Me pregunto si se puede determinar si el límite converge de hecho a algún número fijo $C\in\left[-\frac{1}{4},\frac{1}{4}\right]$ o "rebota" (similar a una onda sinusoidal). Tal vez la convergencia de Did en probabilidad a $-\frac{1}{4}$ ¿se puede aprovechar aquí de alguna manera?

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X