4 votos

Convergencia casi segura de $\frac1{\sqrt n}\max_{1\le i\le n}|X_i|$

Dejemos que $X_1,X_2,\ldots$ sean variables aleatorias i.i.d. Suponiendo que $EX_1^2 < \infty$ , demuestran que $$\frac{\max_{1 \leq i \leq n} |X_i|}{\sqrt n}\stackrel{\text{a.s.}}\longrightarrow 0.$$

Dejemos que $M_n = \max_{1 \leq i \leq n} |x_i|$ .

Probé diferentes maneras, pero ninguna parecía funcionar.

Puedo demostrar que $\frac{\max_{1 \leq i \leq n} |x_i|}{\sqrt n}$ converge en probabilidad a 0. Y traté de decir que como es una secuencia monótona, también converge casi seguramente. Pero me atasco en demostrar la monotonicidad (solo $M_n \leq M_{n+1}$ No, en realidad no. $\frac{M_n}{\sqrt n} \leq \frac{M_{n+1}}{\sqrt n}$ ).

Entonces, traté de usar el lema de Borel-Cantelli para demostrar

i). $$\sum_{i = 1}^\infty P\left(\frac{M_n}{\sqrt n}>\epsilon\right) < \infty$$

o ii). $$\sum_{i = 1}^\infty P\left(\frac{M_n}{\sqrt n} \leq \epsilon\right) = \infty$$

Tengo $$P\left(\frac{M_n}{\sqrt n} > \epsilon\right) \leq nP(X_i > \epsilon \sqrt n) \leq n \frac{E(X^2)}{n \epsilon^2} = \frac{E(X^2)}{\epsilon^2}$$ Pero la suma de esta serie sí parece converger.

Entonces, traté de ver $$P\left(\frac{M_n}{\sqrt n} \leq \epsilon\right) = 1 - P\left(\frac{M_n}{\sqrt n} \geq \epsilon\right) = 1 - \left(P\left(\frac{X_i}{\sqrt n} \geq \epsilon\right)\right)^n \geq 1 - \left(\frac{E(X^2)}{n \epsilon^2}\right)^n$$

$$\sum_{n = 1}^{\infty } P\left(\frac{M_n}{\sqrt n} \leq \epsilon\right) \geq \sum_{n = 1}^{\infty } 1- \left(\frac{E(X^2)}{n \epsilon^2}\right)^n = \infty, n \rightarrow \infty$$

¿Es este último enfoque suficiente para concluir que $\frac{\max_{1 \leq i \leq n} |x_i|}{\sqrt n}$ converge casi seguro a 0??? Me parece que me estoy perdiendo algo.

3voto

Gábor Pálovics Puntos 191

Si he entendido bien, primero ha utilizado el hecho de que tiene un máximo, pero $P(M_n < x)= P(X<x)^n$ y no $P(M_n > x) \ne P(X > x)^n$ . Después, has aplicado la igualdad de Chebyshev y, por último, el lema de Borel-Cantelli. Sin embargo, el lema de Borell-Cantelli establece que si la suma de las probabilidades de una serie de sucesos es finita, entonces el limsup es cero, lo que implica que en este caso nuestra serie converge casi con seguridad. Pero del hecho de que la suma de probabilidades es infinita, no se puede decir mucho.

Por ejemplo, considere $(X_n)_{n=1}^{\infty}$ s.t. $P(X_n=1)=\frac 1n$ y $P(X_n=0)=1 - \frac 1n$ . En este caso $\sum_{n=1}^{\infty} P(X_n = 1) = \sum \frac 1n = \infty$ pero no se puede decir en absoluto que $X_n$ converge a 1 a.s. $$$$ Ahora volvamos a la solución.

Creo que es más fácil tratar este problema si primero se cuadra todo. Deja que $Y_i=X_i^2$ entonces $E{Y_i} < \infty$ $$\max_i{\frac{|X_i|}{\sqrt{n}}}\to 0 \Longleftrightarrow \max_i \frac{Y_i}{n}\to 0$$

Entonces puedes utilizar los siguientes eventos: $A_k = \{\frac{Y_k}{k} \ge \epsilon \}$ Ahora, si mostramos lo siguiente, entonces hemos terminado. $$\sum_k P(A_k) \le \frac{EY_1}{\epsilon} < \infty$$ , porque por el lema de B.C. esto significa que sólo hay un número finito de $A_k$ se produce por cada $\epsilon$ que también significa $\frac{Y_k}{k} \to 0 $ a.s.

Podemos mostrar la relación anterior de la siguiente manera para cada $Z>0$ . $$\sum_{k=1}^{n} P(Z \ge k) = E\bigg(\sum_{k=1}^{n} I(Z \ge k)\bigg) = E\big(\lfloor Z \rfloor\big) \le E(Z)$$

Usted sustituye $Z=\frac{Y_i}{\epsilon}$ y ahí lo tienes $:)$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X